221 resultados para when lien arises
Resumo:
Contexte et objectifs. Plusieurs études sur l’homicide ont été réalisées avec l’objectif d’épauler les policiers lors de leurs enquêtes. Le lien entre l’agresseur et la victime représente le principal déterminant des types de meurtres. L’utilité de ces études a toutefois été remise en question tant par les policiers que par la communauté scientifique. En combinant la perspective du script et l’approche dimensionnelle, le but du présent mémoire est d’améliorer les connaissances sur le processus de commission de l’homicide. Méthodologie. Différents scripts de l’homicide seront proposés afin de reconstituer le processus de commission du crime et de mieux comprendre les dynamiques expressives et instrumentales qui y sont rattachées. Les données utilisées dans le cadre de la recherche ont été recueillies auprès de 100 dossiers d’homicide de femmes et d’enfants répertoriés entre 1988 et 2011. Résultats. Les scripts permettent de dresser divers constats. Tout d’abord, lorsque la victime a subi d’importants sévices, le meurtrier est généralement un proche, indépendamment du motif initial de l’agresseur (p. ex. commettre un vol ou tout simplement tuer la victime). La sévérité des sévices dépend également de la présence d’armes sur les lieux du crime et du degré de résistance de la victime. Finalement, les scripts ont démontré que la nature de la relation entre la victime et l’agresseur influence le lieu où le meurtre prend place. Conclusion. Les résultats obtenus s’inscrivent dans une perspective différente en ce sens où, sans négliger la question de la personnalité, des variables contextuelles, hors du contrôle de l’agresseur, ont une incidence sur le niveau de sévices infligé à la victime. Le profile pourrait dès lors intégrer des aspects situationnels afin de pister les enquêteurs.
Resumo:
Le déploiement optimal de l’étendue de la pratique infirmière, qui traduit la mise en œuvre du rôle professionnel, est essentiel à l’accessibilité, à la continuité, à la qualité ainsi qu’à la sécurité des soins, dont ceux dispensés aux enfants et à leur famille. Or, il semble que les infirmières éprouvent certaines difficultés à déployer pleinement leur étendue de pratique, ce qui pourrait également compromettre la satisfaction professionnelle, un enjeu majeur pour la rétention du personnel dans les organisations de soins de santé. Le but de cette étude est de mesurer l’étendue effective de la pratique d’infirmières en pédiatrie, ses déterminants et son influence sur la satisfaction professionnelle. Le cadre de référence, un modèle original développé dans cette thèse, prend appui sur la théorie des caractéristiques de l’emploi (Hackman & Oldham, 1974), le modèle tension-autonomie (Karasek, 1985), la théorie du rôle (Biddle, 1979) et les travaux de D’Amour et al. (2012) portant sur l’étendue de la pratique infirmière. Afin d’atteindre le but de cette étude, le modèle développé met en relation les caractéristiques du travail et les caractéristiques individuelles d’influence potentielle sur le déploiement de l’étendue de la pratique infirmière. Il présuppose également un lien entre l’étendue de la pratique infirmière et la satisfaction professionnelle. Un devis corrélationnel descriptif a été retenu pour cette étude. Une enquête par questionnaire auprès d’infirmières de cinq secteurs d’activités d’un centre hospitalier pédiatrique universitaire du Québec a été réalisée (N=301). Les associations entre les variables ont été examinées en utilisant des analyses bivariées, multivariées et un modèle d’équations structurelles. Les analyses effectuées révèlent une bonne concordance du modèle développé (ratio x²/dl= 1,68; RMSEA = ,049; CFI = ,985). Au total, le modèle explique 32,5 % de la variance de l’étendue de la pratique infirmière et 11,3% de la variance de la satisfaction professionnelle. Les résultats font état d’un déploiement non-optimal de l’étendue de la pratique infirmière (3,21/6; É.T.= ,707). Les variables significativement associées au déploiement de l’étendue de la pratique infirmière sont: la latitude décisionnelle (β = ,319; p <0,01), la surcharge de rôle (β = ,201; p <0,05), l’ambiguïté de rôle (β = ,297; p <0,05), le besoin de croissance individuelle de l’infirmière (β = ,151; p <0,05) et le niveau de formation (β = ,128; p <0,05). Il est également démontré que l’étendue de la pratique infirmière est associée positivement à la satisfaction professionnelle (β = ,118; p <0,01). Une description plus détaillée des résultats de l’étendue de la pratique infirmière en fonction du niveau de formation et du poste occupé met en lumière que les infirmières bachelières ont une étendue de pratique significativement plus élevée (3,35; É.T =,746) que les infirmières collégiales (3,12; É.T =,669). L’occupation d’un poste de clinicienne est aussi associée à une plus grande étendue de pratique infirmière. Précisément, les infirmières qui occupent un poste d’infirmière obtiennent un score de 3,13/6 (É.T =,664) alors que le score des infirmières qui occupent un poste de clinicienne s’élève à 3,48/6 (É.T =,798). Cette étude innove en présentant un modèle de référence qui a le potentiel de générer des connaissances importantes en sciences infirmières en lien avec le déploiement optimal de l’étendue de pratique infirmière. Prenant appui sur ce modèle novateur, les résultats révèlent les caractéristiques du travail sur lesquelles il y a urgence d’agir afin d’accroître le déploiement de l’étendue de la pratique infirmière et par le fait même la satisfaction professionnelle.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
1)Soraya Mamoun: soraya.mamoun@umontreal.ca 3)Sabine Saade, psychoéducatrice en troubles du spectre autistique Mark Chebli, neuropsychologue
Resumo:
This thesis questions the major esthetic differences between the artistic productions of the Second Spanish Republic (1931-1939) and the nationalist artistic productions of the Civil War years and the first decade of the francoist dictatorship. These differences are analysed using the artistic productions of Josep Renau (1907 Valence – 1982 Berlin East) and of Ignacio Zuloaga (Elibar 1870 – Madrid 1945). Renau was an important artistic figure during the Spanich Republic. In this thesis, we analyse Renau’s different propaganda productions between 1931 and 1939. Zuloaga was an international artist when the nationalist uprising occurred in 1936. He was recognized by the European elites for his portraits of Andalousian and Castillian sceneries. Zuloaga supported the nationalist putsch and the francoist ideology. In 1939, the Caudillo ordered the painting of the portrait that we will be analysing. The theories of François Hartog, Reinhart Koselleck, Paul Ricoeur and Hannah Arendt are used to analyse the historical conceptual confrontation in Spain, portrayed by the artworks that we studied. During the Republic, it was the modern historical regime that was in force. The historical references used are close in time and the history is constructed in the future and attached to the idea of progress. With the nationalists, the historical conception is connected to the Historia magistra where the past is used as an example. In the first francoism, a return to Spain’s glorious past (the Middle Ages, the Golden Century and the Counter Reform) is clearly claimed in order to rescue the country from the ills of modernity. It is with these different historical conceptions in mind that we compare the esthetics specificities of the artworks, the identity and historical references and the mediums used to legitimize the power and the political actions of each front.
Resumo:
Le surenroulement de l’ADN est important pour tous les processus cellulaires qui requièrent la séparation des brins de l’ADN. Il est régulé par l’activité enzymatique des topoisomérases. La gyrase (gyrA et gyrB) utilise l’ATP pour introduire des supertours négatifs dans l’ADN, alors que la topoisomérase I (topA) et la topoisomérase IV (parC et parE) les éliminent. Les cellules déficientes pour la topoisomérase I sont viables si elles ont des mutations compensatoires dans un des gènes codant pour une sous-unité de la gyrase. Ces mutations réduisent le niveau de surenroulement négatif du chromosome et permettent la croissance bactérienne. Une de ces mutations engendre la production d'une gyrase thermosensible. L’activité de surenroulement de la gyrase en absence de la topoisomérase I cause l’accumulation d’ADN hyper-surenroulé négativement à cause de la formation de R-loops. La surproduction de la RNase HI (rnhA), une enzyme qui dégrade l’ARN des R-loops, permet de prévenir l’accumulation d’un excès de surenroulement négatif. En absence de RNase HI, des R-loops sont aussi formés et peuvent être utilisés pour déclencher la réplication de l’ADN indépendamment du système normal oriC/DnaA, un phénomène connu sous le nom de « constitutive stable DNA replication » (cSDR). Pour mieux comprendre le lien entre la formation de R-loops et l’excès de surenroulement négatif, nous avons construit un mutant conditionnel topA rnhA gyrB(Ts) avec l’expression inductible de la RNase HI à partir d’un plasmide. Nous avons trouvé que l’ADN des cellules de ce mutant était excessivement relâché au lieu d'être hypersurenroulé négativement en conditions de pénurie de RNase HI. La relaxation de l’ADN a été montrée comme étant indépendante de l'activité de la topoisomérase IV. Les cellules du triple mutant topA rnhA gyrB(Ts) forment de très longs filaments remplis d’ADN, montrant ainsi un défaut de ségrégation des chromosomes. La surproduction de la topoisomérase III (topB), une enzyme qui peut effectuer la décaténation de l’ADN, a corrigé les problèmes de ségrégation sans toutefois restaurer le niveau de surenroulement de l’ADN. Nous avons constaté que des extraits protéiques du mutant topA rnhA gyrB(Ts) pouvaient inhiber l’activité de surenroulement négatif de la gyrase dans des extraits d’une souche sauvage, suggérant ainsi que la pénurie de RNase HI avait déclenché une réponse cellulaire d’inhibition de cette activité de la gyrase. De plus, des expériences in vivo et in vitro ont montré qu’en absence de RNase HI, l’activité ATP-dépendante de surenroulement négatif de la gyrase était inhibée, alors que l’activité ATP-indépendante de cette enzyme demeurait intacte. Des suppresseurs extragéniques du défaut de croissance du triple mutant topA rnhA gyrB(Ts) qui corrigent également les problèmes de surenroulement et de ségrégation des chromosomes ont pour la plupart été cartographiés dans des gènes impliqués dans la réplication de l’ADN, le métabolisme des R-loops, ou la formation de fimbriae. La deuxième partie de ce projet avait pour but de comprendre les rôles des topoisomérases de type IA (topoisomérase I et topoisomérase III) dans la ségrégation et la stabilité du génome de Escherichia coli. Pour étudier ces rôles, nous avons utilisé des approches de génétique combinées avec la cytométrie en flux, l’analyse de type Western blot et la microscopie. Nous avons constaté que le phénotype Par- et les défauts de ségrégation des chromosomes d’un mutant gyrB(Ts) avaient été corrigés en inactivant topA, mais uniquement en présence du gène topB. En outre, nous avons démontré que la surproduction de la topoisomérase III pouvait corriger le phénotype Par- du mutant gyrB(Ts) sans toutefois corriger les défauts de croissance de ce dernier. La surproduction de topoisomérase IV, enzyme responsable de la décaténation des chromosomes chez E. coli, ne pouvait pas remplacer la topoisomérase III. Nos résultats suggèrent que les topoisomérases de type IA jouent un rôle important dans la ségrégation des chromosomes lorsque la gyrase est inefficace. Pour étudier le rôle des topoisomérases de type IA dans la stabilité du génome, la troisième partie du projet, nous avons utilisé des approches génétiques combinées avec des tests de « spot » et la microscopie. Nous avons constaté que les cellules déficientes en topoisomérase I avaient des défauts de ségrégation de chromosomes et de croissance liés à un excès de surenroulement négatif, et que ces défauts pouvaient être corrigés en inactivant recQ, recA ou par la surproduction de la topoisomérase III. Le suppresseur extragénique oriC15::aph isolé dans la première partie du projet pouvait également corriger ces problèmes. Les cellules déficientes en topoisomérases de type IA formaient des très longs filaments remplis d’ADN d’apparence diffuse et réparti inégalement dans la cellule. Ces phénotypes pouvaient être partiellement corrigés par la surproduction de la RNase HI ou en inactivant recA, ou encore par des suppresseurs isolés dans la première partie du projet et impliques dans le cSDR (dnaT18::aph et rne59::aph). Donc, dans E. coli, les topoisomérases de type IA jouent un rôle dans la stabilité du génome en inhibant la réplication inappropriée à partir de oriC et de R-loops, et en empêchant les défauts de ségrégation liés à la recombinaison RecA-dépendante, par leur action avec RecQ. Les travaux rapportés ici révèlent que la réplication inappropriée et dérégulée est une source majeure de l’instabilité génomique. Empêcher la réplication inappropriée permet la ségrégation des chromosomes et le maintien d’un génome stable. La RNase HI et les topoisomérases de type IA jouent un rôle majeur dans la prévention de la réplication inappropriée. La RNase HI réalise cette tâche en modulant l’activité de surenroulement ATP-dependante de la gyrase, et en empêchant la réplication à partir des R-loops. Les topoisomérases de type IA assurent le maintien de la stabilité du génome en empêchant la réplication inappropriée à partir de oriC et des R-loops et en agissant avec RecQ pour résoudre des intermédiaires de recombinaison RecA-dépendants afin de permettre la ségrégation des chromosomes.
Resumo:
Problème: Ma thèse porte sur l’identité individuelle comme interrogation sur les enjeux personnels et sur ce qui constitue l’identification hybride à l’intérieur des notions concurrentielles en ce qui a trait à l’authenticité. Plus précisément, j’aborde le concept des identifications hybrides en tant que zones intermédiaires pour ce qui est de l’alternance de codes linguistiques et comme négociation des espaces continuels dans leur mouvement entre les cultures et les langues. Une telle négociation engendre des tensions et/ou apporte le lien créatif. Les tensions sont inhérentes à n’importe quelle construction d’identité où les lignes qui définissent des personnes ne sont pas spécifiques à une culture ou à une langue, où des notions de l’identité pure sont contestées et des codes communs de l’appartenance sont compromis. Le lien créatif se produit dans les exemples où l’alternance de code linguistique ou la négociation des espaces produit le mouvement ouvert et fluide entre les codes de concurrence des références et les différences à travers les discriminations raciales, la sexualité, la culture et la langue. Les travaux que j’ai sélectionnés représentent une section transversale de quelques auteurs migrants provenant de la minorité en Amérique du Nord qui alternent les codes linguistiques de cette manière. Les travaux détaillent le temps et l’espace dans leur traitement de l’identité et dans la façon dont ils cernent l’hybridité dans les textes suivants : The Woman Warrior de Maxine Hong Kingston (1975-76), Hunger of Memory de Richard Rodriguez (1982), Comment faire l’amour avec un nègre sans se fatiguer de Dany Laferrière (1985), Borderlands/La Frontera de Gloria Anzalduá (1987), Lost in Translation de Eva Hoffman (1989), Avril ou l’anti-passion de Antonio D’Alfonso (1990) et Chorus of Mushrooms de Hiromi Goto (1994). Enjeux/Questions La notion de l’identification hybride est provocante comme sujet. Elle met en question l’identité pure. C’est un sujet qui a suscité beaucoup de discussions tant en ce qui a trait à la littérature, à la politique, à la société, à la linguistique, aux communications, qu’au sein même des cercles philosophiques. Ce sujet est compliqué parce qu’il secoue la base des espaces fixes et structurés de l’identité dans sa signification culturelle et linguistique. Par exemple, la notion de patrie n’a pas les représentations exclusives du pays d’origine ou du pays d’accueil. De même, les notions de race, d’appartenance ethnique, et d’espaces sexuels sont parfois négativement acceptées si elles proviennent des codes socialement admis et normalisés de l’extérieur. De tels codes de la signification sont souvent définis par l’étiquette d’identification hétérosexuelle et blanche. Dans l’environnement généralisé d’aujourd’hui, plus que jamais, une personne doit négocier qui elle est, au sens de son appartenance à soi, en tant qu’individu et ce, face aux modèles locaux, régionaux, nationaux, voire même globaux de la subjectivité. Nous pouvons interpréter ce mouvement comme une série de couches superposées de la signification. Quand nous rencontrons une personne pour la première fois, nous ne voyons que la couche supérieure. D’ailleurs, son soi intérieur est caché par de nombreuses couches superposées (voir Joseph D. Straubhaar). Toutefois, sous cette couche supérieure, on retrouve beaucoup d’autres couches et tout comme pour un oignon, on doit les enlever une par une pour que l’individualité complète d’une personne soit révélée et comprise. Le noyau d’une personne représente un point de départ crucial pour opposer qui elle était à la façon dont elle se transforme sans cesse. Sa base, ou son noyau, dépend du moment, et comprend, mais ne s’y limite pas, ses origines, son environnement et ses expériences d’enfance, son éducation, sa notion de famille, et ses amitiés. De plus, les notions d’amour-propre et d’amour pour les autres, d’altruisme, sont aussi des points importants. Il y a une relation réciproque entre le soi et l’autre qui établit notre degré d’estime de soi. En raison de la mondialisation, notre façon de comprendre la culture, en fait, comment on consomme et définit la culture, devient rapidement un phénomène de déplacement. À l’intérieur de cette arène de culture généralisée, la façon dont les personnes sont à l’origine chinoises, mexicaines, italiennes, ou autres, et poursuivent leur évolution culturelle, se définit plus aussi facilement qu’avant. Approche Ainsi, ma thèse explore la subjectivité hybride comme position des tensions et/ou des relations créatrices entre les cultures et les langues. Quoique je ne souhaite aucunement simplifier ni le processus, ni les questions de l’auto-identification, il m’apparaît que la subjectivité hybride est aujourd’hui une réalité croissante dans l’arène généralisée de la culture. Ce processus d’échange est particulièrement complexe chez les populations migrantes en conflit avec leur désir de s’intégrer dans les nouveaux espaces adoptés, c’est-à-dire leur pays d’accueil. Ce réel désir d’appartenance peut entrer en conflit avec celui de garder les espaces originels de la culture définie par son pays d’origine. Ainsi, les références antérieures de l’identification d’une personne, les fondements de son individualité, son noyau, peuvent toujours ne pas correspondre à, ou bien fonctionner harmonieusement avec, les références extérieures et les couches d’identification changeantes, celles qu’elle s’approprie du pays d’accueil. Puisque nos politiques, nos religions et nos établissements d’enseignement proviennent des représentations nationales de la culture et de la communauté, le processus d’identification et la création de son individualité extérieure sont formées par le contact avec ces établissements. La façon dont une personne va chercher l’identification entre les espaces personnels et les espaces publics détermine ainsi le degré de conflit et/ou de lien créatif éprouvé entre les modes et les codes des espaces culturels et linguistiques. Par conséquent, l’identification des populations migrantes suggère que la « community and culture will represent both a hybridization of home and host cultures » (Straubhaar 27). Il y a beaucoup d’écrits au sujet de l’hybridité et des questions de l’identité et de la patrie, toutefois cette thèse aborde la valeur créative de l’alternance de codes culturels et linguistiques. Ce que la littérature indiquera Par conséquent, la plate-forme à partir de laquelle j’explore mon sujet de l’hybridité flotte entre l’interprétation postcoloniale de Homi Bhabha concernant le troisième espace hybride; le modèle d’hétéroglossie de Mikhail Bakhtine qui englobent plusieurs de mes exemples; la représentation de Roland Barthes sur l’identité comme espace transgressif qui est un modèle de référence et la contribution de Chantal Zabus sur le palimpseste et l’alternance de codes africains. J’utilise aussi le modèle de Sherry Simon portant sur l’espace urbain hybride de Montréal qui établit un lien important avec la valeur des échanges culturels et linguistiques, et les analyses de Janet Paterson. En effet, la façon dont elle traite la figure de l’Autre dans les modèles littéraires au Québec fournisse un aperçu régional et national de l’identification hybride. Enfin, l’exploration du bilinguisme de Doris Sommer comme espace esthétique et même humoristique d’identification situe l’hybridité dans une espace de rencontre créative. Conséquence Mon approche dans cette thèse ne prétend pas résoudre les problèmes qui peuvent résulter des plates-formes de la subjectivité hybride. Pour cette raison, j’évite d’aborder toute approche politique ou nationaliste de l’identité qui réfute l’identification hybride. De la même façon, je n’amène pas de discussion approfondie sur les questions postcoloniales. Le but de cette thèse est de démontrer à quel point la subjectivité hybride peut être une zone de relation créatrice lorsque l’alternance de codes permet des échanges de communication plus intimes entre les cultures et les langues. C’est un espace qui devient créateur parce qu’il favorise une attitude plus ouverte vis-à-vis les différents champs qui passent par la culture, aussi bien la langue, que la sexualité, la politique ou la religion. Les zones hybrides de l’identification nous permettent de contester les traditions dépassées, les coutumes, les modes de communication et la non-acceptation, toutes choses dépassées qui emprisonnent le désir et empêchent d’explorer et d’adopter des codes en dehors des normes et des modèles de la culture contenus dans le discours blanc, dominant, de l’appartenance culturelle et linguistique mondialisée. Ainsi, il appert que ces zones des relations multi-ethniques exigent plus d’attention des cercles scolaires puisque la population des centres urbains à travers l’Amérique du Nord devient de plus en plus nourrie par d’autres types de populations. Donc, il existe un besoin réel d’établir une communication sincère qui permettrait à la population de bien comprendre les populations adoptées. C’est une invitation à stimuler une relation plus intime de l’un avec l’autre. Toutefois, il est évident qu’une communication efficace à travers les frontières des codes linguistiques, culturels, sexuels, religieux et politiques exige une négociation continuelle. Mais une telle négociation peut stimuler la compréhension plus juste des différences (culturelle ou linguistique) si des institutions académiques offrent des programmes d’études intégrant davantage les littératures migrantes. Ma thèse vise à illustrer (par son choix littéraire) l’identification hybride comme une réalité importante dans les cultures généralisées qui croissent toujours aujourd’hui. Les espaces géographiques nous gardent éloignés les uns des autres, mais notre consommation de produits exotiques, qu’ils soient culturels ou non, et même notre consommation de l’autre, s’est rétrécie sensiblement depuis les deux dernières décennies et les indicateurs suggèrent que ce processus n’est pas une tendance, mais plutôt une nouvelle manière d’éprouver la vie et de connaître les autres. Ainsi les marqueurs qui forment nos frontières externes, aussi bien que ces marqueurs qui nous définissent de l’intérieur, exigent un examen minutieux de ces enjeux inter(trans)culturels, surtout si nous souhaitons nous en tenir avec succès à des langues et des codes culturels présents, tout en favorisant la diversité culturelle et linguistique. MOTS-CLÉS : identification hybride, mouvement ouvert, alternance de code linguistique, négociation des espaces, tensions, connectivité créative
Resumo:
Contexte et objectifs. Ce mémoire propose un modèle conceptuel écologique afin de mieux comprendre la violence dans les écoles. Les objectifs de cette recherche sont de ; 1) estimer l’effet des facteurs individuels, contextuels et environnementaux sur le risque de victimisation, 2) vérifier la présence d’interactions entre les différents facteurs. Méthodologie. Les élèves de 16 écoles primaires de la grande région métropolitaine de Montréal ont pris part à un sondage auto-révélé en lien avec différentes dimensions liées à la victimisation en milieu scolaire. Des analyses descriptives ont été menées, dans un premier temps, pour dresser le portrait de la violence en milieu scolaire. Dans un second temps, l’emploi d’un modèle linéaire hiérarchique généralisé (MLHG) a permis d’estimer les effets de variables propres à l’individu, au contexte et à l’environnement sur le risque de victimisation. Résultats. Les résultats aux analyses multiniveaux montrent que des variables individuelles, contextuelles et environnementales influent sur la probabilité d’être victime de violence verbale, physique et dans les médias sociaux. Ainsi, les élèves les plus délinquants sont aussi ceux qui rapportent le plus d’antécédents de victimisation. Toutefois, ces résultats ne sont pas entièrement imputables aux caractéristiques des individus. Le risque de victimisation est atténué lorsque les « gardiens » interviennent pour mettre un terme au conflit et que les victimes se défendent. Enfin, le risque de victimisation est moins élevé dans les écoles où il y a un grand nombre d’élèves. Interprétation. Les résultats suggèrent que plusieurs facteurs qui ne sont pas liés aux victimes et aux délinquants permettent de mieux comprendre le processus de victimisation en milieu scolaire. Le rôle des gardiens de même que la taille des écoles sont des éléments centraux à la compréhension du passage à l’acte.
Resumo:
Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).
Resumo:
Le carcinome hépatocellulaire (CHC) est un cancer au pronostic sombre, car il est souvent diagnostiqué trop tardivement pour entreprendre un traitement curatif. Il se développe dans 80-90% des cas sur fond de cirrhose. On connait mal comment la fibrose, étape préliminaire à la cirrhose, et son principal constituant, le collagène de type 1 (COL1), peuvent jouer un rôle dans le processus du CHC. Nous avons tout d’abord étudié le développement de la fibrose dans un modèle utilisant la souris nue. Nous avons déterminé qu’après 16 semaines d’administration de thioacétamide dans l’eau de boisson, il est possible d’obtenir une fibrose suffisante pour induire une hépatoprotection en présence de différents hépatotoxiques (AST dans le sérum de souris fibrotiques vs non-fibrotiques : Anti-Fas JO2 (4665 ± 2596 vs. 13953 ± 2260 U/L; P<0.05), acétaminophène (292 ± 66 vs. 4087 ± 2205 U/L; P<0.01) et CCL4 (888 ± 268 vs. 15673 ± 2782 U/L; P<0.001)). Ces résultats confirment que la présence de COL1 et de fibrose favorise la survie des hépatocytes normaux tel qu’observé précédemment au laboratoire. Par la suite, nous avons sélectionné in vivo, par injection intrasplénique de la lignée de CHC Hepa1-6, une lignée à forte tumorigénicité nommée dt-Hepa1-6 (28±12 lésions vs. 0±0 lésions à 21 jours). Cette lignée était composée d’une sous-population cellulaire arborant la protéine de surface EpCAM (34.0±0.1%). Par tri cellulaire, nous avons démontré que ces cellules étaient partiellement responsables de la tumorigénicité accrue (EpCAM + (86.7±2.3%) :1093±74 lésions vs. EpCAM- (15.3±1.0%) :473±100 lésions; P<0.01). Nous avons alors démontré que la présence de fibrose favorise le développement de la lignée dt-Hepa1-6 in vivo (604±242 vs 22±9 lésions; P<0.05). De plus, la présence de fibrose réduit l’efficacité du traitement au cisplatin in vivo (44.5±4.9 vs. 78.7±6.9%; P<0.01) confirmant les résultats obtenus in vitro (Apoptose : COL1 13.75±0.44% vs. plastique 31.45±1.37%; P<0.001). En conclusion, la présence de fibrose et de son principal constituant, le COL1, favorise la survie et la progression du CHC.
Resumo:
La consommation et la consommation problématique de substances psychoactives sont des phénomènes répandus à l’adolescence qui ont suscité beaucoup d’intérêt dans les pays occidentaux au cours des dernières décennies. La recherche a souligné la nécessité d’établir un modèle examinant les effets conjoints du groupe de pairs et de la famille sur ces phénomènes. Deux grandes lignées théoriques émergent de la littérature, soit les courants de la socialisation et de la sélection. De plus, de nombreuses études ont tenté d’expliquer la fréquente cooccurrence de ces phénomènes avec la symptomatologie dépressive, généralement associée à un pronostic plus lourd. Toutefois, la nature et le sens de cette association demeurent peu clairs. Une clarification des mécanismes en jeu est nécessaire afin de pouvoir mieux orienter les efforts de prévention et d’intervention. Le premier objectif de cette thèse est de contribuer à clarifier l’étiologie de la consommation problématique à l’adolescence, en examinant comment elle s’articule avec certains facteurs familiaux, comportementaux et affectifs, et avec l’association à des amis déviants et consommateurs, en testant conjointement deux modèles de médiation compétitifs. Le deuxième objectif est de clarifier l’association entre ces différentes dimensions et la symptomatologie dépressive, en testant l’effet modérateur des symptômes dépressifs dans la chaîne médiatrice proposée. Le troisième objectif est de spécifier les particularités pouvant exister entre les garçons et les filles en testant l’effet modérateur du sexe sur cette même chaîne médiatrice. Les données utilisées proviennent d’une cohorte de l’échantillon longitudinal de la Stratégie d’Intervention Agir Autrement (SIAA) comprenant plus de 3000 jeunes fréquentant des écoles de milieux majoritairement défavorisés du Québec, qui ont été suivis pendant leur secondaire (2003-2007). Lorsque testés séparément, le modèle de socialisation (Patterson) se reproduit dans notre échantillon, mais pas le modèle de sélection (Brown). Lorsque testés simultanément, les modèles structurels de régressions croisées suggèrent toutefois qu’aucun des liens postulés par les modèles ne semble se reproduire, au profit de liens médiateurs de stabilité, à l’exception d’un lien de médiation proposé par le modèle de Patterson chez les garçons. Les analyses de modération (multi-groupes) suggèrent que le sexe a bien un effet modérateur, le contrôle comportemental parental semblant particulièrement important dans l’étiologie des comportements problématiques des garçons, alors que les conflits familiaux semblent plus centraux pour les filles. Les analyses de modération suggèrent également un effet modérateur par les symptômes dépressifs, mais alors qu’il était attendu que ces symptômes exacerberaient les liens à l’étude, il apparaît qu’au contraire, aucun des liens ne se révèle significatif dans le groupe des dépressifs. Cette étude suggère donc que la symptomatologie dépressive et la consommation problématique se présentent conjointement dans un profil plus global de risque. À notre connaissance, cette thèse est la première à s’intéresser spécifiquement au rôle modérateur des symptômes dépressifs sur les liens existant entre les différentes dimensions à l’étude. Les résultats soulignent l’importance d’une intervention psychosociale précoce auprès des jeunes à risque et aux prises avec des symptômes dépressifs, en ciblant des aspects spécifiques pour les garçons et pour les filles.
Resumo:
Le réveil de la question de l’Être fut le grand leitmotiv de la pensée de Martin Heidegger. Or cette question ne trouve pas la même formulation de Sein und Zeit jusqu’aux derniers écrits. En effet, si l’œuvre maîtresse du penseur prépare le terrain pour un questionnement sur le langage et la parole authentique, elle ne rattache pas explicitement la problématique de l’Être à celle de la poésie. À partir du milieu des années trente, un tournant se fera jour : la poésie deviendra un partenaire privilégié dans la mise en œuvre de la question de l’Être. Cette tendance de pensée se radicalisera dans les décennies ultérieures, où la compréhension du langage véritable comme poème deviendra de plus en plus centrale. À quoi tient ce rôle imparti au discours poétique dans l’œuvre de Heidegger? Quelle place occupe le dire poétique dans le cadre plus large d’une herméneutique philosophique tournée vers l’aspect langagier de toute existence? Comment comprendre le lien entre une pensée de l’Ereignis, du Quadriparti et de la fondation de l’Être à travers le dire du poète? Enfin, quels parallèles faut-il dresser entre les tâches respectives du penseur et du poète dans le contexte d’un dialogue authentique? Ces questions guideront notre parcours et traceront la voie d’une interprétation dont l’accent portera sur les thèmes privilégiés du dépassement du langage conceptuel de la philosophie, de la place déterminante du Sacré et de la responsabilité insigne du poète et du penseur dans le projet de la garde de l’Être. Notre objectif sera d’éclaircir le sens de ce recours à la poésie afin de mieux comprendre en quoi Heidegger a pu trouver dans un tel dialogue les ressources nécessaires qui alimenteront l’élan de son unique quête : une approche authentique du sens de l’Être, de son alètheia et de son topos. On sait l’importance de ce dialogue : estimant que la métaphysique s’était caractérisée par un « oubli de l’être » (Seinsvergessenheit), Heidegger juge qu’une autre pensée (das andere Denken) reste malgré tout possible, mais qu’elle aurait à se déployer en tant que dialogue entre pensée et poésie.
Resumo:
L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Doctorat en psychologie clinique (D.Psy.)
La diffamation sur Internet : actualiser la responsabilité en droit civil et en common law au Canada
Resumo:
En cette ère que plusieurs surnomment le « Web 2.0 », les usagers se sont emparés avec enthousiasme des fonctions liées aux communications et au partage sur Internet, ce médium devenant ainsi une nouvelle plate-forme pour les enjeux liés à la vie privée et à la réputation. La diffamation constitue justement un des problèmes prédominants constatés en lien avec ce contenu électronique, plus particulièrement lorsqu’il est question de contenu généré par les utilisateurs. Face à cet outil permettant une diffusion et une intéractivité sans précédent, comment devons-nous aborder Internet au regard des règles de droit applicables au Canada en matière de diffamation? L’analyse juridique traditionnelle sied-elle aux nouvelles réalités introduites par ce médium? Le bijuridisme canadien nous impose d’étudier parallèlement les régimes de droit civil et de common law et ce, dans une optique comparative afin de comprendre les concepts et le fonctionnement propres à chacune des approches juridiques cohabitant au pays. Cette analyse nous permettra de mettre en lumière les particularités du médium électronique qui se révèlent pertinentes lorsqu’il est question de diffamation et qui font la spécificité des situations et des acteurs en ligne, distinguant ainsi Internet des modes de communications traditionnels que le droit connaît. Cette approche comparative permet de poser un regard critique sur chacun des régimes de droit en vigueur au Canada, considérant la réalité propre à Internet et au contenu généré par les utilisateurs, mais surtout, vise à promouvoir le développement de méthodes d’analyse véritablement ancrées dans le fonctionnement du médium en cause et susceptibles d’évoluer avec celui-ci.