859 resultados para limitations of therapy
Resumo:
BACKGROUND: Dyslipidemia is recognized as a major cause of coronary heart disease (CHD). Emerged evidence suggests that the combination of triglycerides (TG) and waist circumference can be used to predict the risk of CHD. However, considering the known limitations of TG, non-high-density lipoprotein (non-HDL = Total cholesterol - HDL cholesterol) cholesterol and waist circumference model may be a better predictor of CHD. PURPOSE: The Framingham Offspring Study data were used to determine if combined non-HDL cholesterol and waist circumference is equivalent to or better than TG and waist circumference (hypertriglyceridemic waist phenotype) in predicting risk of CHD. METHODS: A total of3,196 individuals from Framingham Offspring Study, aged ~ 40 years old, who fasted overnight for ~ 9 hours, and had no missing information on nonHDL cholesterol, TG levels, and waist circumference measurements, were included in the analysis. Receiver Operator Characteristic Curve (ROC) Area Under the Curve (AUC) was used to compare the predictive ability of non-HDL cholesterol and waist circumference and TG and waist circumference. Cox proportional-hazards models were used to examine the association between the joint distributions of non-HDL cholesterol, waist circumference, and non-fatal CHD; TG, waist circumference, and non-fatal CHD; and the joint distribution of non-HDL cholesterol and TG by waist circumference strata, after adjusting for age, gender, smoking, alcohol consumption, diabetes, and hypertension status. RESULTS: The ROC AUC associated with non-HDL cholesterol and waist circumference and TG and waist circumference are 0.6428 (CI: 0.6183, 0.6673) and 0.6299 (CI: 0.6049, 0.6548) respectively. The difference in the ROC AVC is 1.29%. The p-value testing if the difference in the ROC AVCs between the two models is zero is 0.10. There was a strong positive association between non-HDL cholesterol and the risk for non-fatal CHD within each TO levels than that for TO levels within each level of nonHDL cholesterol, especially in individuals with high waist circumference status. CONCLUSION: The results suggest that the model including non-HDL cholesterol and waist circumference may be superior at predicting CHD compared to the model including TO and waist circumference.
Resumo:
Background. West Nile Virus (WNV), a mosquito-borne flavivirus, is one of an increasing number of infectious diseases that have been emerging or re-emerging in the last two decades. Since the arrival ofWNV to Canada to present date, the Niagara Region has only reported 30 clinical cases, a small number compared to the hundreds reported in other regions of similar conditions. Moreover, the last reported human case in Niagara was in 2006. As it has been demonstrated that the majority of WNV infections are asymptomatic, the question remains whether the lack of clinical cases in Niagara truly reflects the lack of transmission to humans or if infections are still occurring but are mostly asymptomatic. Objectives. The general objective of this study was to establish whether or not active WNV transmission could be detected in a human population residing in Niagara for the 2007 transmission season. To fullfil this objective, a cross-sectional seroprevalence study was designed to investigate for the presence of anti-WNV antibodies in a sample of Mexican migrant agricultural workers employed in farms registered with the Seasonal Agricultural Workers Program (SAWP). Due to the Mexican origin of the study participants, three specific research objectives were proposed: a) determine the seroprevalence ofanti-WNV antibodies as well as anti-Dengue virus antibodies (a closely related virus prevalent in Mexico and likely to confound WNV serology); b) analyze risk factors associated with WNV and Dengue virus seropositivity; and c) assess the awareness of study participants about WNV infection as well as their understanding of the mode of transmission and clinical importance of the infection. Methodology: After obtaining ethics clearance from Brock University, farms were visited and workers invited to participate. Due to time constraints, only a small number of farms were enrolled with a resulting convenience and non-randomized study sample. Workers' demographic and epidemiological data were collected using a standardized questionnaire and blood samples were drawn to determine serum anti-WNV and anti- Dengue antibodies with a commercial ELISA. All positive samples were sent to the National Microbiology Laboratory in Winnipeg, Manitoba for confirmation with the Plaque Reduction Neutralization Test (PRNT). Data was analyzed with Stata 10.0. Antibody determinations were reported as seroprevalence proportions for both WNV and Dengue. Logistic regression was used to analyze risk factors that may be associated with seropositivity and awareness was reported as a proportion of the number of individuals possessing awareness over the total number of participants. Results and Discussion. In total 92 participants working in 5 farms completed the study. Using the commercial ELISA, seropositivity was as follows: 2.2% for WNV IgM, 20.7% for WNV IgG, and 17.1 % for Dengue IgG. Possible cross-reactivity was demonstrated in 15/20 (75.0%) samples that were positive for both WNV IgG and Dengue IgG. Confirmatory testing with the PRNT demonstrated that none of the WNV ELISA positive samples had antibodies to WNV but 13 samples tested positive for anti-Dengue antibodies (14.1 % Dengue sereoprevalence). The findings showed that the ELISA performance was very poor for assessing anti-WNV antibodies in individuals previously exposed to Dengue virus. However, the ELISA had better sensitivity and specificity for assessing anti-Dengue antibodies. Whereas statistical analysis could not be done for WNV seropositivity, as all samples were PRNT negative, logistic regression demonstrated several risk factors for Dengue exposure_ The first year coming to Canada appeared to be significantly associated with increased exposure to Dengue while lower socio-economic housing and the presence of a water basin in the yard in Mexico appeared to be significantly associated with a decreased exposure to Dengue_ These seemingly contradictory results illustrate that in mobile populations such as migrant workers, risk factors for exposure to Dengue are not easily identified and more research is needed. Assessing the awareness of WNV and its clinical importance showed that only 23% of participants had some knowledge of WNV, of which 76% knew that the infection was mosquito-borne and 47% recognized fever as a symptom. The identified lack of understanding and awareness was not surprising since WNV is not a visible disease in Mexico. Since WNV persists in an enzootic cycle in Niagara and the occurrence of future outbreaks is unpredictable, the agricultural workers remain at risk for transmission. Therefore it important they receive sufficient health education regarding WNV before leaving Mexico and during their stay in Canada. Conclusions. Human transmission of WNV could not be proven among the study participants even when due to their occupation they are at high risk for mosquito bites. The limitations of the study sample do not permit generalizable conclusions, however, the study findings are consistent with the absence of clinical cases in the Niagara Region, so it is likely that human transmission is indeed neglible or absent. As evidenced by our WNV serology results, PRNT must be utilized as a confirmatory test since false positivity occurs frequently. This is especially true when previous exposure to Dengue virus is likely.
Resumo:
The present thesis outlines our latest findings on the reactivity of the Burgess reagent with oxiranes. Structural, mechanistic, and computational studies are presented. Included is the development of a (-)-menthyl version of the Burgess reagent and its application to the synthesis of enantiomerically pure ~-amino alcohols. This methodology has been exploited in the formal enantiodivergent synthesis of the (+)- and (-)-isomers of balanol. Also described is a second generation approach to both balanol enantiomers; each commencmg with the chemoenzymatic dihydroxylation of bromobenzene. This study also describes the steric and functional limitations of the toluene dioxygenase-mediated oxidation of benzoate esters. The metabolite derived from ethyl benzoate was employed in a formal synthesis of oseltamivir. Finally, several synthetic approaches to oseltamivir and its analogs are presented, each proceeding through a different vinyl aziridine derived from bromobenzene and ethyl benzoate.
Resumo:
As identified in the literature, a lack of understanding of the functional properties and triggers of stereotypic behaviour exists. When looking at this behaviour from an Applied Behaviour Analysis (ABA) framework, limitations are evident around identifying specific sensory modalities and functional properties of such behaviour. Antecedents particularly are difficult to identify and interpret. Therefore an interdisciplinary approach to assessment using two types of professional services commonly received by individuals with autism was proposed. However before this approach could be investigated the current interpretations of Stereo typic behaviour by each professional must be examined along with perceptions of interdisciplinary collaboration. The purpose of this study was to use an in-depth qualitative analysis to reveal the interpretations of stereotypy and collaboration from the perspectives of two particular professionals. The results of the study demonstrated that occupational therapists and behaviour analysts likely have different interpretations of the same behaviour,that consultation is the common model used to interact with other disciplines, and that professionals may have mixed feelings toward interdisciplinary practices as an approach to stereotypic behaviour. Strengths and limitations of the study were highlighted along with specific directions for future research.
Resumo:
Empirical research has consistently demonstrated a positive association between psychopathic traits and physical aggression (Campbell, Porter, & Santor, 2004; Gretton, Hare, & Catchpole, 2004; Raine et aI., 2006; Spain, Douglas, Poythress, & Epstein, 2004). Moreover, research has also found that the emotional/interpersonal (Factor 1) psychopathy traits tend to be more closely associated with goal oriented, proactive aggression, whereas the social deviance (Factor 2) psychopathy characteristics have been more closely linked to reactive aggression, which is perpetrated in response to threat or provocation (Flight & Forth, 2007). Blair (2004; 2005; 2006) has recently proposed the Integrated Emotions Systems Model (lES), which posits that the association between Factor 1 psychopathy traits and proactive aggression is due to amygdala dysfunction leading to failed moral socialization. Consequently, individuals who exhibit Factor 1 psychopathy traits do not experience affective empathy in response to distress cues exhibited by others, thus, preventing the inhibition of proactive aggression. The current investigation sought to test this model by examining the associations among the emotional/interpersonal (Factor 1) psychopathy traits, proactive aggression, and affective empathy. After accounting for head injury, Factor 2 psychopathy traits, reactive aggression, and cognitive empathy, it was hypothesized that 1) Factor 1 psychopathy traits would predict proactive aggression, and 2) that affective empathy is a common cause of Factor 1 psychopathy traits, proactive aggression, and of the relationship between these two constructs. This hypothesis assumed that (a) affective empathy would uniquely predict Factor 1 psychopathy traits, (b) that affective empathy would uniquely predict proactive aggression, and (c) that affective empathy would account for the relationship between Factor I psychopathy traits and proactive aggression. The total sample consisted of 137 male undergraduate students. Participants completed measures of psychopathy (SRP III; Paulhus, Hemphill, & Hare, in press), aggression (PCS; Marsee, Kimonis, & Frick, 2004; RPQ; Raine et at, 2006), dispositional cognitive and affective empathy (BES; Jolliffe & Farrington, 2006; TES; Spreng, McKinnon, Mar, & Levine, 2009), and situational cognitive and affective empathy in response to neutral and empathy eliciting video clips. Physiological indices (heart rate & electrodermal activity) of affective empathy were also obtained while participants viewed the neutral and empathy eliciting videos. Findings indicated that Factor I psychopathy traits predicted proactive aggression. In addition, results demonstrated that affective empathy predicted both Factor I psychopathy traits and proactive aggression. However, the association between affective empathy and proactive aggression appeared to be dependent on the conceptualization and measurement of affective empathy. Conversely, affective empathy did not appear to account for the relationship between Factor I psychopathy traits and proactive aggression. Overall, results demonstrated partial support for the IES model. Implications of the results, limitations of the study and future research directions are discussed.
Resumo:
The purpose of this major research project was to develop a practical tool in the form of a handbook that could facilitate educators’ effective use of technology in primary and junior classrooms. The main goal was to explore the use of iPad devices and applications in the literacy classroom. The study audited available free applications against set criteria and selected only those that promoted 21st-century learning. The researcher used such applications to develop literacy lessons that aligned with curriculum expectations and promoted 21st-century skills and traditional skills alike. The study also created assessment models to evaluate the use of iPads in student work and explored the benefits and limitations of technology usage in student learning.
Resumo:
Le virus de l’hépatite C (VHC) est un problème mondial. La majorité des personnes infectées (70-85%) développent une infection chronique qui cause des complications hépatiques. Le seul régime thérapeutique approuvé pour le VHC est l'interféron alpha (IFN-α). Ce traitement a un taux de réussite de 50-80% selon le génotype de virus et le moment de l'initiation de la thérapie. Les facteurs régissant la réponse au traitement ne sont pas bien définis. Des études antérieures ont suggéré un rôle potentiel de la réponse immunitaire de l'hôte au succès de la thérapie, toutefois, ces résultats sont controversés. Nous avons émis l'hypothèse que la réponse immunitaire de l’hôte sera plus efficace chez les patients qui commencent la thérapie tôt pendant la phase aiguë de l'infection. En revanche, la réponse immunitaire sera épuisée lorsque le traitement est initié pendant la phase chronique. L'objectif principal de ce mémoire est d’étudier les facteurs immunologiques qui régissent la réponse à la thérapie, et de déterminer si la contribution de la réponse immunitaire de l'hôte peut être influencée par la période de l'infection. Nos résultats démontrent l'efficacité de la restauration de la réponse immunitaire spécifique au VHC lorsque la thérapie par l'interféron est initiée tôt. Ceci est démontré par le sauvetage des cellules T efficaces spécifiques au VHC efficace similaires à celles observées chez les individus qui ont résolu spontanément, suggérant ainsi qu'elles jouent un rôle actif dans la réponse au traitement. Toutefois, cette réponse n'a pas été restaurée chez les patients traités au cours de la phase chronique. Ces résultats ont des implications importantes dans la compréhension des mécanismes sous-jacents à la réponse aux traitements actuels et au développement des nouvelles thérapies.
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
We study the workings of the factor analysis of high-dimensional data using artificial series generated from a large, multi-sector dynamic stochastic general equilibrium (DSGE) model. The objective is to use the DSGE model as a laboratory that allow us to shed some light on the practical benefits and limitations of using factor analysis techniques on economic data. We explain in what sense the artificial data can be thought of having a factor structure, study the theoretical and finite sample properties of the principal components estimates of the factor space, investigate the substantive reason(s) for the good performance of di¤usion index forecasts, and assess the quality of the factor analysis of highly dissagregated data. In all our exercises, we explain the precise relationship between the factors and the basic macroeconomic shocks postulated by the model.
Resumo:
Dans ma mémoire, j’ai discuté les concepts d’arbitrage comme méthode de résolution d’un litige et par après, je donne un court historique de l’acceptation d’arbitrage au Québec. Le Chapitre I étudie la structure des règlements du R.B.Q., qui est un gendre d’arbitrage obligatoire institutionnelle, et j’inclus les diverses procédures dans ce système d’arbitrage. La sécurité offert par le plan de garantie règle par le R.B.Q. est discuté dans le Chapitre II en autant qu’il est relié avec le system d’arbitrage R.B.Q., y compris la structure du plan et le contenu de la sécurité. Chapitre III parle des recours disponible aux Bénéficiares ainsi que les avantages et désavantages de l’arbitrage sous les Règlements du R.B.Q. Un court étude comparative de quatre autres juridictions est recherché en Chapitre IV, incluant notre voisin, Ontario, les Etats-Unis et on croise dans les juridictions de Royaume Unie et Allemagne. En conclusion, j’établis que notre système d’arbitrage sous le Règlement protéges notre publique plus que d’autres juridictions. Je suggère des améliorations au système, par contre, incluant l’agrandissement du plan de garantie, l’ajout des pouvoirs donnés aux arbitres américains et ensuite d’intègré un système d’arrêt semblable aux Royaumes Unis.
Resumo:
La mammite subclinique est un problème de santé fréquent et coûteux. Les infections intra-mammaires (IIM) sont souvent détectées à l’aide de mesures du comptage des cellules somatiques (CCS). La culture bactériologique du lait est cependant requise afin d’identifier le pathogène en cause. À cause de cette difficulté, pratiquement toutes les recherches sur la mammite subclinique ont été centrées sur la prévalence d’IIM et les facteurs de risque pour l’incidence ou l’élimination des IIM sont peu connus. L’objectif principal de cette thèse était d’identifier les facteurs de risque modifiables associés à l’incidence, l’élimination et la prévalence d’IIM d’importance dans les troupeaux laitiers Canadiens. En premier lieu, une revue systématique de la littérature sur les associations entre pratiques utilisées à la ferme et CCS a été réalisée. Les pratiques de gestion constamment associées au CCS ont été identifiées et différentiées de celles faisant l’objet de rapports anecdotiques. Par la suite, un questionnaire bilingue a été développé, validé, et utilisé afin de mesurer les pratiques de gestion d’un échantillon de 90 troupeaux laitiers canadiens. Afin de valider l’outil, des mesures de répétabilité et de validité des items composant le questionnaire ont été analysées et une évaluation de l’équivalence des versions anglaise et française a été réalisée. Ces analyses ont permis d’identifier des items problématiques qui ont du être recatégorisés, lorsque possible, ou exclus des analyses subséquentes pour assurer une certaine qualité des données. La plupart des troupeaux étudiés utilisaient déjà la désinfection post-traite des trayons et le traitement universel des vaches au tarissement, mais beaucoup des pratiques recommandées n’étaient que peu utilisées. Ensuite, les facteurs de risque modifiables associés à l’incidence, à l’élimination et à la prévalence d’IIM à Staphylococcus aureus ont été investigués de manière longitudinale sur les 90 troupeaux sélectionnés. L’incidence d’IIM semblait être un déterminant plus important de la prévalence d’IIM du troupeau comparativement à l’élimination des IIM. Le port de gants durant la traite, la désinfection pré-traite des trayons, de même qu’une condition adéquate des bouts de trayons démontraient des associations désirables avec les différentes mesures d’IIM. Ces résultats viennent souligner l’importance des procédures de traite pour l’obtention d’une réduction à long-terme de la prévalence d’IIM. Finalement, les facteurs de risque modifiables associés à l’incidence, à l’élimination et à la prévalence d’IIM à staphylocoques coagulase-négatif (SCN) ont été étudiés de manière similaire. Cependant, afin de prendre en considération les limitations de la culture bactériologique du lait pour l’identification des IIM causées par ce groupe de pathogènes, une approche semi-Bayesienne à l’aide de modèles de variable à classe latente a été utilisée. Les estimés non-ajusté de l’incidence, de l’élimination, de la prévalence et des associations avec les expositions apparaissaient tous considérablement biaisés par les imperfections de la procédure diagnostique. Ce biais était en général vers la valeur nulle. Encore une fois, l’incidence d’IIM était le principal déterminant de la prévalence d’IIM des troupeaux. Les litières de sable et de produits du bois, de même que l’accès au pâturage étaient associés à une incidence et une prévalence plus basse de SCN.
Resumo:
Cette thèse se concentre sur ce que j'appelle «l’espace négatif» de la représentation dans la poésie de Stevens comme étant un véritable espace d'engagement politique, une interprétation qui se distingue de la plus grande partie de la critique sur Stevens. En suivant les écrits philosophiques d'Emmanuel Levinas, j'affirme que l'emphase que Stevens place sur la représentation de la représentation elle-même ouvre un espace au-delà des limites rigides de l'identité-ce que Levinas appelle « le je [sujet] semblable », permettant un contact authentique avec « l'Autre» ainsi qu’avec le concept de « l'infini ». Bien que Stevens s’est farouchement opposé à la notion Romantique de la sublime transcendance, c’est-à-dire d'un espace censé exister en dehors des limites de l'imagination humaine, il se concerne néanmoins avec l'exploration d'un espace au-delà de l'identité individuelle. Pour Stevens, cependant, « la transcendance» est toujours, nécessairement, liée par les restrictions reconnues du langage humain et de l'imagination, et donc par la réalité du monde perceptible. Toute « transcendance» qui est recherchée ou atteinte, dans la poésie de Stevens ne devrait donc pas - ma thèse affirme - être entendu dans le sens sublime déterminé auparavant par les Romantiques. Une connexion plus appropriée peut plutôt être faite avec la transcendance concrète et immédiate décrit par Lévinas comme le «face à face ». L’attention que Stevens accordent aux notions concrètes et immédiates est souvent exprimé à travers son attention sur les qualités esthétiques de la langue. Sa poésie a en effet la poésie pour sujet, mais pas dans le sens solipsiste qui lui est souvent attribué. En se concentrant sur le processus actif et créateur inhérent à l'écriture et à la lecture de la poésie, Stevens explore la nature de l'Etre lui-même. Je compare cette exploration dans le travail de Stevens à celle du dessinateur, ou de l'artiste, et dans ma conclusion, je suggère les liens entre l'approche d'enquête de Stevens et celle d’artistes visuels contemporains qui se sont également engagés à la figuration du processus créatif. L’ artiste sud-africain William Kentridge est mon exemple principal , en raison de sa conviction que la méthode est intrinsèquement liée à l'engagement politique et social.
Resumo:
Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.
Resumo:
L’approche cognitive du trouble obsessionnel-compulsif (TOC) propose un lien bidirectionnel entre les émotions et les cognitions. Cependant, même si des études montrent une association entre les émotions et le TOC, aucune étude ne s’est attardée à la relation entre les émotions, les cognitions et les comportements au cours d’une thérapie cognitive. La présente étude a pour but d’examiner la relation entre les processus cognitif, béhavioral et émotionnel au cours d’une thérapie basée sur les inférences (TBI) chez des personnes souffrant du TOC. Plus précisément, nous avons observé comment les émotions et les symptômes du TOC s’influencent et comment ils s’influencent à travers le temps. Les patients ont rempli un journal de bord tout au long du processus thérapeutique, notant (de 0 à 100) des émotions clés, ainsi que les croyances et les comportements ciblés durant la thérapie. Des analyses à mesures répétées ont été utilisées afin de maximiser le potentiel des données longitudinales. Les résultats montrent que l’anxiété, la tristesse et la joie ont des trajectoires similaires aux croyances et aux comportements au cours de la thérapie. Les forces et limites de l’étude sont discutées. Les implications des résultats pour le traitement des émotions et des pensées à différents moments de la thérapie sont aussi discutées.
Resumo:
Au cours des dernières années, des méthodes non-invasives de stimulations permettant de moduler l’excitabilité des neurones suivant des lésions du système nerveux central ont été développées. Ces méthodes sont maintenant couramment utilisées pour étudier l’effet de l’inhibition du cortex contralésionnel sur la récupération motrice à la suite d’un accident vasculocérébral (AVC). Bien que plusieurs de ces études rapportent des résultats prometteurs, les paramètres permettant une récupération optimale demeurent encore inconnus. Chez les patients victimes d'un AVC, il est difficile de débuter les traitements rapidement et d'initier l’inhibition dans les heures suivant la lésion. L'impact de ce délai est toujours inconnu. De plus, aucune étude n’a jusqu’à maintenant évalué l’effet de la durée de l’inhibition sur la récupération du membre parétique. Dans le laboratoire du Dr Numa Dancause, nous avons utilisé un modèle bien établi de lésion ischémique chez le rat pour explorer ces questions. Nos objectifs étaient d’évaluer 1) si une inactivation de l’hémisphère contralésionnel initiée dans les heures qui suivent la lésion peut favoriser la récupération et 2) l’effet de la durée de l’inactivation sur la récupération du membre parétique. Suite à une lésion dans le cortex moteur induite par injections d’un vasoconstricteur, nous avons inactivé l’hémisphère contralésionnel à l’aide d’une pompe osmotique assurant l’infusion continue d’un agoniste du GABA (Muscimol). Dans différents groupes expérimentaux, nous avons inactivé l’hémisphère contralésionnel pour une durée de 3, 7 et 14 jours suivant la lésion. Dans un autre groupe, le Muscimol a été infusé pour 14 jours mais à un débit moindre de façon à pouvoir étudier le lien entre la fonction du membre non-parétique et la récupération du membre parétique. Les données comportementales de ces groupes ont été comparées à celles d’animaux ayant récupéré de façon spontanée d'une lésion similaire. Nos résultats indiquent que l’augmentation de la durée de l’inactivation (de 3 à 14 jours) accélère la récupération du membre parétique. De plus, les deux groupes ayant reçu une inactivation d'une durée de 14 jours ont montré une plus grande récupération fonctionnelle que le groupe n’ayant pas reçu d’inactivation de l’hémisphère contralésionnel, le groupe contrôle. Nos résultats suggèrent donc que l’inactivation de l’hémisphère contralésionnel initiée dans les heures suivant la lésion favorise la récupération du membre parétique. La durée d’inhibition la plus efficace (14 jours) dans notre modèle animal est beaucoup plus longues que celles utilisées jusqu’à maintenant chez l’homme. Bien qu’il soit difficile d’extrapoler la durée idéale à utiliser chez les patients à partir de nos données, nos résultats suggèrent que des traitements de plus longue durée pourraient être bénéfiques. Finalement, un message clair ressort de nos études sur la récupération fonctionnelle après un AVC: dans le développement de traitements basés sur l’inhibition de l’hémisphère contralésionnel, la durée de l’inactivation est un facteur clef à considérer.