541 resultados para négation, effet négatif, imparfait, ne...plus


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université catholique de Louvain

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La conciliation, un mécanisme alternatif de résolution des conflits, cherche à la fois à maintenir une relation d'affaires ainsi qu'à raviver la communication et l’équilibre des pouvoirs entre deux parties opposées. Son véritable esprit consiste à faire en sorte que le citoyen récupère son rôle principal dans la solution de ses conflits et qu’il agisse sans l'intervention de l'État. Contrairement aux autres systèmes juridiques, le système juridique colombien donne au conciliateur un pouvoir décisionnel et/ou consultatif dans un cas concret. Aussi, les termes médiation et conciliation sont parfois utilisés comme synonymes. Cependant, ces termes se différencient selon la participation du tiers conciliateur ou médiateur au processus de résolution des conflits. In mediation, the mediator controls the process through different and specific stages: introduction, joint session, caucus, and agreement, while the parties control the outcome. Par ailleurs, même si ce sont des concepts universels grâce aux textes juridiques, ces mécanismes de résolution des conflits demeurent encore méconnus des citoyens. La pratique de la conciliation ne connaît pas de frontières; elle est répandue partout dans le monde. Dans les années 90, les pays d’Amérique latine, plus précisément la Colombie, ont commencé à envisager la possibilité de prendre part dans cette enrichissante expérience grâce aux progrès législatifs et institutionnels qui ont été réalisés en matière de mécanismes alternatifs de résolution des conflits. En matière de conciliation, en Colombie, il y a une grande richesse normative mais les lois, dispersées et difficiles à interpréter, génèrent de l’insécurité et de l’incertitude juridique. De plus, entamer le processus de conciliation se fait de diverses manières, la plus controversée étant sans doute la conciliation préalable obligatoire. Cette méthode imposée a été la cible de diverses critiques. En effet, ces critiques concernent le fait qu’une telle pratique obligatoire enfreint le volontariat, un pilier fondamental de la conciliation. Aussi, le tiers conciliateur, ayant une formation de haut niveau, représente une pièce maîtresse dans le processus de conciliation vu sa grande responsabilité dans le bon déroulement de cette méthode de résolution des conflits.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les nouvelles technologies mobiles, Internet et les plateformes d’échanges réseautiques ont-ils un effet tangible sur les habitudes de travail des journalistes politiques de la presse écrite? Comment ces nouveaux outils participent-ils à la construction identitaire de ces journalistes? Dans le but de mieux comprendre leur contexte de travail et de (re)construction identitaire, nous avons choisi d’analyser le rôle qu’occupent les nouvelles technologies dans leur quotidien, tant du point de vue de leurs pratiques actuelles que du point de vue de leurs perceptions d’eux-mêmes et du métier. Dans cette étude qualitative, sept journalistes politiques francophones de médias traditionnels écrits ont été interviewés dans le but de nous aider à mieux cerner les libertés mais aussi les contraintes qui accompagnent l’adoption de nouveaux outils technologiques ainsi que les nouvelles pratiques qui y sont rattachées. Les nouvelles technologies et les plateformes réseautiques ne sont pas que de simples outils de travail, ils redéfinissent le rôle même du journaliste dans la société. Hormis les adaptations quotidiennes qu’elles supposent dans les changements de méthodes de travail, elles contribuent souvent à déstabiliser le journaliste dans ses valeurs traditionnelles les plus solidement ancrées. Ces nouveaux outils deviennent le lieu d’échanges accrus où le journaliste se retrouve, bien malgré lui, à devoir défendre un rôle qui lui était autrefois acquis. Vecteurs d’autovalorisation pour le public, ils sont plus souvent le lieu de résistance pour les journalistes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les noyaux supraoptiques (NSO) et paraventriculaires (NPV) de l’hypothalamus montrent un phénomène réversible de plasticité structurale neurono-gliale dans diverses conditions physiologiques telles que la parturition, l’allaitement ou lors d’une surcharge en sel. En effet, les feuillets astrocytaires qui enveloppent normalement les somas et dendrites des neurones à ocytocine (OT) ou à vasopressine (AVP) se rétractent alors, autour des neurones à OT, laissant place à la formation de nouvelles synapses, surtout GABAergiques. Nous avons émis l’hypothèse voulant que ces mouvements cellulaires soient régulés par des molécules connues pour leurs rôles dans l’adhérence et la motilité cellulaires, notamment les récepteurs Eph et les éphrines (Efn). Nous avons étudié le rôle de l’un de ces récepteurs, EphA4, un récepteur à tyrosine kinase reconnaissant l’ensemble des Efn, A ou B, puis tenté d’identifier les Efn partenaires dans le NSO, à la suite d’une surcharge en sel. Pour démontrer la présence d’EphA4 dans le NSO et déterminer l’effet d’une surcharge en sel sur son expression et sa localisation, nous avons utilisé l’hybridation in situ et l’immunohistochimie en microscopie électronique, sur des coupes de cerveaux de souris ou rats traités ou non à l’eau salée pendant 1-7 j, avec des ribosondes ou des anticorps spécifiques pour EphA4. Ces travaux ont démontré une augmentation de l’expression d’EphA4 dans le NSO, notamment dans des dendrites, après le régime salé. La distribution de cette expression correspondait à celle des neurones OT et était absente de la glia limitans. Nous avons ensuite déterminé l’effet d’une absence d’EphA4 sur les mouvements astrocytaires et la synaptogènese autour des dendrites à OT et AVP, en utilisant des souris EphA4 knockouts et des souris de type sauvage des mêmes portées. Nous avons ainsi mesuré la couverture astrocytaire des dendrites OT ou AVP, identifiées par immunocytochimie anti-OT ou anti-AVP, en microscopie électronique. Ces mesures ont confirmé la rétraction des feuillets astrocytaires et la synaptogenèse autour des dendrites OT, mais pas autour des dendrites AVP, chez les souris de type sauvage, et démontré que la rétraction des feuillets astrocytaires et la synaptogenèse sur les dendrites OT ne se produisait pas chez les souris knockouts soumises à la surcharge en sel. L’ensemble de ces résultats démontre un rôle d’EphA4 dans cette plasticité structurale neurono-gliale. Afin d’identifier l’Efn partenaire d’EphA4 dans cette fonction, nous avons utilisé l’hybridation in situ et l’immunohistochimie pour les EfnB3 et -A3. L’hybridation in situ n’a pas démontré d’expression de l’EfnB3 dans le NSO, tandis que les résultats pour l’EfnA3 restent à quantifier. Cependant, l’immunohistochimie anti-EfnA3 montre un marquage d’astrocytes dans le NSO et la glia limitans, marquage qui semble augmenter après surcharge en sel, mais il reste à démontrer que l’anticorps anti-EfnA3 est bien spécifique et à quantifier les éventuels changements sur un plus grand nombre d’animaux. L’ensemble de ces observations démontre un rôle du récepteur EphA4 dans les mécanismes à la base des changements structuraux neurono-gliaux du NSO et pointe vers l’EfnA3 comme partenaire d’EphA4 dans ce modèle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La maladie de Parkinson (MP) est la deuxième maladie neurodégénérative la plus commune. Les symptômes principalement observés chez les patients atteints de la MP sont la rigidité, les tremblements, la bradykinésie et une instabilité posturale. Leur sévérité est souvent asymétrique. La cause principale de ces symptômes moteurs est la dégénérescence du circuit dopaminergique nigro-striatal qui mène à un débalancement d’activité du circuit cortico-striatal. Ce débalancement de circuits est le point essentiel de cette thèse. Dans les protocoles de recherche décrits ici, des patients atteints de la MP (avant et après une dose de levodopa) et des participants contrôles sains ont effectué des mouvements auto-initiés ou en réponse à des stimulis externes pendant que l’on mesurait leur activité cérébrale en imagerie par résonance magnétique fonctionnelle (IRMf). Dans cette thèse, nous abordons et mettons en évidence quatre (4) points principaux. En première partie (chapitre 2), nous présentons un recensement de la littérature sur les cicruits cortico-striataux et cortico-cérébelleux dans la MP. En utilisant des méthodes de neuroimagerie, des changements d’activité cérébrale et cérébelleuse ont été observés chez les patients atteints de la MP comparés aux participants sains. Même si les augmentations d’activité du cervelet ont souvent été attribuées à des mécanismes compensatoires, nos résultats suggèrent qu’elles sont plus probablement liées aux changements pathophysiologiques de la MP et à la perturbation du circuit cortico-cérébelleux. En général, nous suggérons (1) que le circuit cortico-cérébelleux est perturbé chez les patients atteints de la MP, et que les changements d’activité du cervelet sont liés à la pathophysiologie de la MP plutôt qu’à des mécanismes compensatoires. En deuxième partie (chapitre 3), nous discutons des effets de la levodopa sur les hausses et baisses d’activité observés chez les patients atteints de la MP, ainsi que sur l’activité du putamen pendant les mouvements d’origine interne et externe. De nombreuses études en neuroimagerie ont montré une baisse d’activité (hypo-activité) préfrontale liée à la déplétion de dopamine. En revanche, l’utilisation de tâches cognitives a montré des augmentations d’activité (hyper-activité) corticale chez les patients atteints de la MP comparés aux participants sains. Nous avons suggéré précédemment que ces hypo- et hyper-activités des régions préfrontales dépendent de l’implication du striatum. Dans cette thèse nous suggérons de plus (2) que la levodopa ne rétablit pas ces hyper-activations, mais plutôt qu’elles sont liées à la perturbation du circuit méso-cortical, et aussi possiblement associées à l’administration de médication dopaminergique à long terme. Nous montrons aussi (3) que la levodopa a un effet non-spécifique à la tâche sur l’activité du circuit cortico-striatal moteur, et qu’elle n’a pas d’effet sur l’activité du circuit cortico-striatal cognitif. Nous montrons enfin (chapitre 4) que la levodopa a un effet asymétrique sur les mouvements de la main droite et gauche. À peu près 50% des patients atteints de la MP démontrent une asymétrie des symptômes moteurs, et ceci persiste à travers la durée de la maladie. Nos résultats suggèrent (4) que la levodopa pourrait avoir un plus grand effet sur les patrons d’activations des mouvements de la main la plus affectée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La prévalence de l’excès de poids (EP) est en pleine croissance à travers le monde. Au Canada, elle serait de 59,1% dans la population générale, dont 23,1% d’obésité et 36,0% d’embonpoint. Ces pourcentages sont encore plus élevés dans la population autochtone, en plus d’une forte prévalence d’insécurité alimentaire (IA) et une alimentation en transition vers de moins en moins de nourritures traditionnelles, et de plus en plus de nourritures commerciales de faible densité nutritionnelle. L’Organisation mondiale de la santé (OMS) recommande des initiatives pour documenter le statut sanitaire de cette population afin d’orienter les actions pouvant prévenir les conséquences négatives sur la santé. Notre étude visait donc à décrire les phénomènes de l’EP et de l’IA chez les Premières Nations (PN) adultes de 19 ans et plus, vivant sur les réserves en Colombie-Britannique (CB). Cet échantillon est en effet le premier d’un projet de 10 ans dénommé « First Nations Food, Nutrition and Environment Study » ou (FNFNES), visant à documenter l’état nutritionnel et l’exposition à certains contaminants chez les PN vivant au sud du 60ème parallèle au Canada. Plus particulièrement, cette thèse cherche à associer trois dimensions de la santé, soit l’EP, la qualité de l’alimentation (QA) et l’IA. Nous avons voulu en effet vérifier dans le contexte des PN de la CB: 1) si une QA inadéquate serait associée à un risque plus élevé d’EP; 2) si l’IA des ménages serait associée à une qualité inadéquate de l’alimentation; et 3) si la QA et l’IA expliqueraient ensemble la présence d’EP. A l’issue des analyses (univariées, bivariées, MANOVA et régressions logistiques) de nos données transversales colligées en 2008/2009, les prévalences respectives chez les femmes (n = 493) et les hommes (n = 356) adultes étaient de 44,8% et 35,4% pour l’obésité, de 31,6% et 41,3% pour l’embonpoint, soit un total de 76,4% et 76,7% d’EP. Elles étaient de 39,3% et de 34,8% pour l’IA. Seuls 42,4% des femmes et 43,8% des hommes avaient un accès suffisant aux aliments traditionnels. Après ajustement pour les variables sociodémographiques et du mode de vie, les résultats des analyses multivariées ont montré ii que bien que les prévalences d’EP et d’IA soient assez similaires dans les deux sexes, les processus reliant l’EP, la QA et l’IA seraient différents. En effet, chez les femmes, l’EP serait expliqué par une QA compromise par des apports énergétiques relativement élevés (RC = 2,26; IC: 1,13 - 4,52), la consommation fréquente des boissons gazeuses (pour l’embonpoint, RC = 2,70; IC: 1,11 - 6,56 et pour l’obésité, RC = 2,53; IC: 1,05 - 6,09), en synergie avec l’inactivité physique (RC = 0,52; IC: 0,28 – 0,98 pour le groupe à activité modérée, et RC = 0,36; IC: 0,18 – 0,72 pour le groupe le plus actif), tandis que les produits céréaliers (RC = 0,35; IC: 0,16 - 0,75) et le lait et substituts (RC = 0,40; IC: 0,16 - 0,95) joueraient un rôle protecteur contre l’EP. D’autre part, l’IA des ménages influencerait la QA (à travers les gras saturés, p = 0,02) mais lorsque les trois variables sont étudiées ensemble, seules des dimensions de la QA apparaissent associées à l’EP. Par contre chez les hommes, le seul facteur alimentaire associé à l’EP est le pain blanc mais dans un rôle protecteur (pour l’embonpoint, RC = 0,38; IC: 0,18 - 0,76 et pour l’obésité, RC = 0,36; IC: 0,16 - 0,80); de même, lorsque les trois variables sont étudiées ensemble, l’IA joue un rôle protecteur de l’EP, dans un contexte de tabagisme relativement élevé et également protecteur, ce qui n’expliquerait pas la forte prévalence d’EP observée chez les hommes PN vivant sur les réserves de la CB. Des études plus approfondies et sur des échantillons plus grands seraient nécessaires pour mieux cerner la nature des relations mais d’ores et déjà, notre travail suggère que des effets positifs sur l’EP peuvent être attendus des politiques et programmes visant à réduire la consommation des boissons gazeuses et l’inactivité physique, et à encourager la consommation des produits céréaliers et de lait et substituts chez les femmes. Quant aux hommes, les conclusions de notre étude ne nous permettent pas encore de formuler des recommandations précises. Alors, les comportements santé recommandés aux femmes devraient être généralisés aux hommes en attendant les conclusions d’autres études.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Istanbul est pour Pamuk ce que Paris est pour Baudelaire : une source inépuisable d’inspiration et de spleen. Or, si le poète est davantage conscient de ses états d’âme, le romancier turc le plus lu des deux côtés du Bosphore ne sait pas toujours que tout discours sur le monde extérieur est un discours sur lui-même. Dans un premier temps, il se complait dans l’hüzün, ce sentiment collectif et généralisé de mélancolie, apparemment intrinsèque à la ville et ses ruines, traces tangibles de la décadence d’un grand empire dont les héritiers peinent à se relever. Il n’en est pourtant rien, car, au fur à mesure que Pamuk suit les traces des écrivains et artistes étrangers de passage à Istanbul, il s’aperçoit que l’apparente mélancolie des ruines n’est qu’une strate parmi d’autres, c’est-à-dire glissante, malléable et fluide, tout dépend de l’emplacement et du point de vue de l’observateur, dans une ville palimpseste qui cache dans ses entrailles toutes les altérités. En suivant les traces de l’altérité, Pamuk découvre la nature hétérogène de sa ville et de lui-même et s’aperçoit que la mélancolie collective est fabriquée de toutes pièces par un certain récit socio-politique et une certaine classe sociale. En effet, c’est en traquant les reflets de son double que le romancier prend soudainement conscience du caractère fuyant de sa propre subjectivité, mais aussi de celui du monde et des autres. Si tel est le cas, l’espace urbain qui préoccupe et obsède Pamuk n’est qu’un reflet de son esprit et l’accès à la présence pleine s’avère une illusion. Comme si, l’inquiétante étrangeté de son inconscient, en lui dévoilant le côté insaisissable du monde et du soi, l’encourageait à remettre en cause un certain nombre d’opinions acquises, non seulement à l’intérieur de sa propre culture, mais aussi dans la culture de son double européen. Car si tout est fluide et malléable, il n’y a pas raison de ne pas tout questionner, incluant la tradition et la politique, cette dernière faisant de lui, « une personne bien plus politique, sérieuse et responsable que je ne le suis et ne souhaitais l’être ». Ainsi, Istanbul, souvenir d’une ville questionne le rapport entre la subjectivité et les strates hétérogènes d’Istanbul, pour aboutir à un constat déconstructiviste : tout n’est que bricolage et substitut du sens là où il brille par son absence. S’il brille par son absence, il en est de même loin d’Istanbul, dans une maison périphérique appelée La Maison du Silence à l’intérieur de laquelle les personnages soliloques et par moments muets, se questionnent sur le rapport entre la tradition et la modernité, le centre et la périphérie, l’Occident et l’Orient, sans oublier le caractère destructeur et éphémère du temps, mais aussi de l’espace. Et enfin, Le Musée de l’Innoncence, cette oeuvre magistrale où l’amour joue (en apparence seulement) le rôle principal, n’est en fait que l’étrange aboutissement de la quête obsessessive et narcissique du personnage principal vers un autre espace-temps, quelque part entre la réalité et la fiction, entre l’Est et l’Ouest, entre la tradition et la modernité, cet entre-deux qui campe indéniablement Pamuk parmi les meilleurs romanciers postmodernes de notre époque. Or, pour y parvenir, il faut au préalable un bouc-émissaire qui, dans le cas de Pamuk, représente presque toujours la figure du féminin.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse invite à reconceptualiser le récit dominant quant au parcours d’hommes immigrants de sexualités non normatives. Loin d’être une migration de la tradition vers la modernité, de l’oppression vers la libération, leur parcours est davantage un récit complexe de mobilité et de visibilité inscrit dans des rapports sociaux inégaux. Loin d’être un déchirement entre une «communauté ethnique» homophobe et la «communauté gaie» raciste, leur récit en est un de liens affectifs (r)établis au fil d’interactions sociales significatives. À l’intersection de normes multiples et contradictoires, on constate un processus de (re)formation de subjectivités, à la fois contraintes et habilités par ces normes. Deux corpus sont conjugués, soit l’analyse critique des représentations visuelles et textuelles de la différence ethnique et religieuse dans trois principaux magazines gais québécois et l’analyse par théorisation ancrée d’entretiens semi-dirigés. Ces entretiens ont été menés à Montréal auprès de trente hommes immigrants ayant des relations amoureuses et/ou sexuelles avec d’autres hommes. Les images analysées montrent une tendance à réduire le corps d’hommes de couleur à des objets érotiques et exotiques sur les couvertures des magazines. De plus, les textes avancent un récit de libération sexuelle par la migration qui reproduit les dichotomies dominantes. Un récit beaucoup plus complexe émerge toutefois de l’analyse des entretiens. D’une part, l’expérience de la migration est modulée par divers phénomènes sociaux au-delà de la seule libération sexuelle et l’homophobie se révèle insuffisante pour comprendre le statut des sexualités non normatives, tant dans les pays d’origine que dans les «communautés ethniques» : c’est davantage l’hétéronormativité qui a pour effet de rendre inférieures certaines pratiques de genre et de sexualités. D’autre part, l’expérience de cette visibilité contrainte ne s’exprime que très partiellement par l’idée du «placard» : ces hommes expriment plutôt le vaste potentiel d’expérience d’un espace «tacite» permettant, pour plusieurs, de vivre leur sexualité non normative sans la dire explicitement. Au contraire du rejet des accommodements religieux exprimé dans les magazines gais, les entretiens montrent finalement un réel potentiel d’accommodation du religieux et du sexuel qui, en dépit de tensions, préserve la foi religieuse ou spiritualité tout en vivant la sexualité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le neuroblastome (NB) est la tumeur solide extracranienne la plus fréquente chez le jeune enfant. En dépit de plusieurs avancements thérapeutiques, seulement 60% survivront à long terme. Cette résistance aux traitements est possiblement due, en partie, à la présence des cellules souches cancéreuses (CSC). PARP-1 joue un rôle important dans la chimiorésistance de certaines tumeurs et son inhibition a montré une potentialisation des agents anticancéreux conventionnels. De plus, Bcl-2 est surexprimé dans le NB et son expression accrue contribuerait à la résistance à la chimiothérapie. Le but de notre travail était de déterminer les effets in vitro d’un PARP inhibiteur, AG-014699 (AG), et d’un inhibiteur de Bcl-2, Obatoclax (Obx), in vitro et in vivo, en monothérapie ou en combinaison avec de la Doxorubicine (Doxo) ou du Cisplatin (Cis), deux agents anticancéreux classiquement utilisés dans le traitement du NB. Afin de déterminer l’expression de PARP-1 dans les tumeurs de NB, nous avons analysé une cohorte de 132 tumeurs. Nous avons utilisé le test MTT afin d’évaluer la sensibilité de 6 lignées cellulaires de NB et des CSC à un traitement avec AG seul ou en combinaison avec de la Doxo ou du Cis. Nous avons déterminé l’étendue de la mort cellulaire par Annexin-V et caractérisé les dommages à l’ADN à l’aide d’un marquage γH2aX. De plus, les modulations des voies de signalisation intracellulaire ont été analysées par Western Blot. La sensibilité des cellules à l’Obx a été analysée par MTT sur 6 lignées cellulaires de NB et sa combinaison avec le Cis a également été déterminée dans 2 lignées cellulaires. Le marquage Annexin-V et des combinaisons avec ZVAD-FMK ont aussi été utilisés pour caractériser les effets d’Obx sur l’apoptose. Des expériences in vivo ont également été faites. Nos résultats démontrent que l’expression de PARP-1 est associée aux tumeurs moins agressives. AG n’a peu ou pas effet sur la croissance tumorale et ne potentialise pas significativement les effets de la Doxo ou de Cis. AG combiné à la Doxo semble sensibiliser les CSC dans une lignée cellulaire. L’Annexin-V et le marquage γH2aX ne révèlent pas d’effets synergiques de cette combinaison et les dommages à l’ADN et la mort cellulaire observés sont attribués à la Doxo. Cependant, on observe une augmentation d’apoptose et de bris d’ADN dans une lignée cellulaire (SK-N-FI) lorsqu’AG est utilisé en monothérapie. On observe une surexpression de pAKT et pERK suite à la combinaison Doxo et AG. Les cellules de NB sont sensibles à l’Obx à des concentrations à l’échelle nanomolaire. De plus, Obx active la mort cellulaire par apoptose. Aussi, Obx a un effet synergique avec le Cis in vitro. In vivo, l’Obx diminue significativement la taille tumorale. Nous concluons que l’Obx présente une avenue thérapeutique prometteuse dans le traitement du NB alors que l’utilisation d’AG ne semble pas être aussi encourageante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les biofilms sont des communautés de microorganismes incorporés dans une matrice exo-polymérique complexe. Ils sont reconnus pour jouer un rôle important comme barrière de diffusion dans les systèmes environnementaux et la santé humaine, donnant lieu à une résistance accrue aux antibiotiques et aux désinfectants. Comme le transfert de masse dans un biofilm est principalement dû à la diffusion moléculaire, il est primordial de comprendre les principaux paramètres influençant les flux de diffusion. Dans ce travail, nous avons étudié un biofilm de Pseudomonas fluorescens et deux hydrogels modèles (agarose et alginate) pour lesquels l’autodiffusion (mouvement Brownien) et les coefficients de diffusion mutuels ont été quantifiés. La spectroscopie par corrélation de fluorescence a été utilisée pour mesurer les coefficients d'autodiffusion dans une volume confocal de ca. 1 m3 dans les gels ou les biofilms, tandis que les mesures de diffusion mutuelle ont été faites par cellule de diffusion. En outre, la voltamétrie sur microélectrode a été utilisée pour évaluer le potentiel de Donnan des gels afin de déterminer son impact sur la diffusion. Pour l'hydrogel d'agarose, les observations combinées d'une diminution du coefficient d’autodiffusion et de l’augmentation de la diffusion mutuelle pour une force ionique décroissante ont été attribuées au potentiel de Donnan du gel. Des mesures de l'effet Donnan (différence de -30 mV entre des forces ioniques de 10-4 et 10-1 M) et l'accumulation correspondante d’ions dans l'hydrogel (augmentation d’un facteur de 13 par rapport à la solution) ont indiqué que les interactions électrostatiques peuvent fortement influencer le flux de diffusion de cations, même dans un hydrogel faiblement chargé tel que l'agarose. Curieusement, pour un gel plus chargé comme l'alginate de calcium, la variation de la force ionique et du pH n'a donné lieu qu'à de légères variations de la diffusion de sondes chargées dans l'hydrogel. Ces résultats suggèrent qu’en influençant la diffusion du soluté, l'effet direct des cations sur la structure du gel (compression et/ou gonflement induits) était beaucoup plus efficace que l'effet Donnan. De même, pour un biofilm bactérien, les coefficients d'autodiffusion étaient pratiquement constants sur toute une gamme de force ionique (10-4-10-1 M), aussi bien pour des petits solutés chargés négativement ou positivement (le rapport du coefficient d’autodiffusion dans biofilm sur celui dans la solution, Db/Dw ≈ 85 %) que pour des nanoparticules (Db/Dw≈ 50 %), suggérant que l'effet d'obstruction des biofilms l’emporte sur l'effet de charge. Les résultats de cette étude ont montré que parmi les divers facteurs majeurs qui affectent la diffusion dans un biofilm environnemental oligotrophe (exclusion stérique, interactions électrostatiques et hydrophobes), les effets d'obstruction semblent être les plus importants lorsque l'on tente de comprendre la diffusion du soluté. Alors que les effets de charge ne semblaient pas être importants pour l'autodiffusion de substrats chargés dans l'hydrogel d'alginate ou dans le biofilm bactérien, ils ont joué un rôle clé dans la compréhension de la diffusion à travers l’agarose. L’ensemble de ces résultats devraient être très utiles pour l'évaluation de la biodisponibilité des contaminants traces et des nanoparticules dans l'environnement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

De nos jours, il ne suffit pas de décoder pour être considéré comme alphabétisé, il faut aussi être capable de comprendre différents types de textes et d'utiliser avec efficience les informations qu'ils présentent (MELS, 2006). Le redoublement et le retard scolaire au primaire étant le plus souvent attribuables aux difficultés en lecture et en écriture et ces faiblesses se répercutant sur la réussite des élèves dans toutes les matières (Stetson et Williams, 1992), l'importance de présenter aux élèves des situations d'apprentissage complexes qui les soutiendront dans leur apprentissage par la lecture est sans équivoque. Surtout que Horton et Lovitt (1994) mentionnent que les échecs scolaires seraient étroitement liés aux difficultés que ces élèves éprouvent lorsqu'ils apprennent en lisant. Cette étude a été réalisée à partir des données collectées dans la recherche menée en 2003-2004 par Chouinard, Bowen, Cartier, Desbiens, Laurier, Plante (2005) intitulée: «L'effet de différentes approches évaluatives sur l'engagement et la persévérance scolaire dans le contexte du passage du primaire au secondaire» (Chouinard et coll., 2005). L’objectif de la présente étude était d’explorer la relation entre l’évaluation à l’aide d’examens d'enseignants de la fin du primaire et l’apprentissage par la lecture d'élèves en difficulté d'apprentissage. Pour ce faire, deux sous-objectifs ont été retenus : (1) Comparer la relation entre les deux types d’élèves (élèves ordinaires et élèves en difficulté d’apprentissage) et le processus d’apprentissage par la lecture et (2) Comparer la relation entre les niveaux d’identification d’évaluation à l’aide d’examens des enseignants et le processus d’apprentissage par la lecture. Les trois principaux concepts de la question de recherche sont la difficulté d'apprentissage, l'apprentissage par la lecture et les pratiques évaluatives, dont l’évaluation à l’aide d’examens. Une analyse des caractéristiques des 22 recherches répertoriées a permis constater que très peu de recherche traitent de la relation entre les pratiques évaluatives et le processus d'apprentissage des élèves du primaire et encore moins impliquent des élèves en difficulté d'apprentissage. ii Afin de répondre à l'objectif de la présente étude, une recherche de type exploratoire dans une approche quantitative a été retenue. Des analyses descriptives (moyennes et écart-type), suivie par une analyse multivariée de la variance (MANOVA) à deux niveaux (2x2) ont été effectuées. Ensuite, des analyses univariées ont été conduites sur les variables qui présentaient des relations significatives afin de mieux cibler ces relations. Cent six enseignants et leurs 1864 élèves ont accepté de répondre à deux questionnaires auto-déclarés : Le questionnaire sur les pratiques évaluatives (Chouinard et coll., 2005) a été utilisé auprès des enseignants. Le questionnaire sur l'apprentissage par la lecture: Lire pour apprendre de Cartier et Butler (version 2004) a été utilisé auprès des élèves. Les résultats en lien avec les objectifs de cette étude indiquent un effet d'interaction significatif entre l’identification des enseignants à l’évaluation à l’aide d’examens (forte ou faible) et les types d'élèves (élèves en difficulté d’apprentissage et élèves ordinaires). Les élèves en difficulté d’apprentissage interprètent davantage les exigences de l’activité que les élèves ordinaires lorsqu’ils sont dans ce contexte. On remarque aussi que les élèves en difficulté d’apprentissage rapportent recourir davantage aux stratégies d’encodage et de rappel que les élèves ordinaires et ce, peu importe l’identification des enseignants à l’évaluation à l’aide d’examens. Les résultats en lien avec le premier sous-objectif ont montré une relation significative entre les types d’élèves (élèves en difficulté d’apprentissage et élèves ordinaires) et le processus d’apprentissage par la lecture. Cette relation significative se situe sur l’engagement périphérique et les stratégies cognitives. Aussi, les résultats en lien avec le deuxième sous-objectif ont révélé une relation significative entre l’évaluation à l’aide d’examens et le processus d’apprentissage par la lecture.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le processus d’enseignement ne se limite pas à un ensemble de méthodes pédagogiques à appliquer et de contenus programmés à transmettre. Il se déploie également dans la construction par l’enseignant d’une relation pédagogique avec ses élèves. Cette relation est considérée comme étant optimale lorsqu’elle est caractérisée par un niveau élevé de chaleur et un faible niveau de conflits. Plusieurs études démontrent l’existence de liens significatifs entre la qualité de cette relation et les différents indicateurs d’adaptation à l’école. En général, les résultats des études démontrent l’influence positive d’une relation élève-enseignant chaleureuse sur le comportement des élèves, leur réussite scolaire ainsi que sur leurs sentiments et attitudes envers l’école. Certaines recherches soulignent également que l’incidence de la qualité de la relation élève-enseignant est particulièrement importante pour les élèves considérés à risque en raison de présence chez eux des certains facteurs de vulnérabilité tels que la pauvreté (facteurs sociaux), la relation parent-enfant difficile (facteurs familiaux) ou le manque d’habiletés sociales (facteurs individuels). La majorité de recherches ne permet toutefois pas de déterminer quels sont précisément les aspects de cette relation qui influencent significativement la qualité de la relation entre l’enseignant et ses élèves. Souhaitant pallier cette lacune, la présente étude poursuit deux objectifs : 1) examiner le lien entre les perceptions des élèves de niveau secondaire considérés à risque concernant les différents aspects de la qualité de la relation élève-enseignant et les problèmes de comportement extériorisés ; 2) vérifier si ce lien évolue avec le temps. Afin d’atteindre ces objectifs, nous avons pris en considération deux dimensions qui permettent de qualifier les profils de la relation élève-enseignant, soit la chaleur et les conflits (Pianta, 1992). La classification de ces deux dimensions en fonction de leur pôle positif et négatif permet de distinguer quatre profils relationnels que l’élève est susceptible d’établir avec ses enseignants soient le profil dit chaleureux, controversé, négligent ou conflictuel. II Cette étude repose sur un devis longitudinal grâce aux données recueillies dans le cadre de l’évaluation de la stratégie d’intervention Agir Autrement réalisée entre 2002 et 2008 (SIAA). Il s’agit donc ici d’analyses secondaires menées sur un échantillon aléatoire tiré de cette vaste recherche. Un échantillon de 563 élèves de 1re secondaire incluant 273 filles et 290 garçons a été constitué. Les analyses ont été effectuées auprès de ces élèves alors qu’ils étaient en premier et en cinquième année de secondaire ce qui a permis d’observer les changements dans le comportement des élèves à risque en fonction de la qualité de la relation élève-enseignant. De façon générale, les résultats obtenus montrent que les liens entre les différents profils de la relation élève-enseignant et les problèmes de comportement extériorisés sont fort complexes et loin d’être univoques. En particulier, ces résultats permettent de constater que le profil chaleureux représente le profil relationnel le moins associé aux problèmes de comportement extériorisés chez les élèves à risque et ce, autant en première qu’en cinquième secondaire. Selon nos résultats, les profils conflictuel et controversé sont significativement liés aux problèmes de comportement extériorisés chez les élèves à risque de 1re secondaire et de 5e secondaire. En ce qui a trait au profil négligent, les résultats de la présente recherche montrent l’existence d’un lien corrélationnel entre ce profil relationnel et les problèmes de comportement extériorisés. Toutefois, la force de l’association s’est avérée plus significative pour les élèves à risque en 5e secondaire secondaire comparativement aux mêmes élèves alors qu’ils étaient en 1re secondaire. Finalement, l’ensemble de résultats obtenus montre que les profils relationnels restent relativement stables dans le temps, tandis que la fréquence de comportements problématiques tels que le vol grave et la consommation de psychotropes augmentent d’une manière significative. De plus, les résultats que nous avons obtenus montrent l’existence d’un lien entre la dimension de conflits de la relation élève-enseignant et la consommation de substances psychotropes chez les élèves de notre échantillon. La présente recherche permet de constater que la dimension de conflits est aussi importante dans la relation élève-enseignant que la dimension de la chaleur, car les III conflits agiraient comme facteurs de risque pouvant augmenter la fréquence de problèmes de comportement extériorisés chez les élèves de secondaire considérés à risque. Ainsi, la réduction de niveau de conflits dans la relation entre les élèves et leurs enseignants peut jouer un rôle important en termes de prévention de ce type de problèmes chez les élèves de niveau secondaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les microARN (miARN) sont de petits ARN non-codants qui répriment la traduction de leurs gènes cibles par hybridation à leur ARN messager (ARNm). L'identification de cibles biologiquement actives de miARN est cruciale afin de mieux comprendre leurs rôles. Ce problème est cependant difficile parce que leurs sites ne sont définis que par sept nucléotides. Dans cette thèse je montre qu'il est possible de modéliser certains aspects des miARN afin d'identifier leurs cibles biologiquement actives à travers deux modélisations d'un aspect des miARN. La première modélisation s'intéresse aux aspects de la régulation des miARN par l'identification de boucles de régulation entre des miARN et des facteurs de transcription (FT). Cette modélisation a permis, notamment, d'identifier plus de 700 boucles de régulation miARN/FT, conservées entre l'humain et la souris. Les résultats de cette modélisation ont permis, en particulier, d'identifier deux boucles d'auto-régulation entre LMO2 et les miARN miR-223 et miR-363. Des expériences de transplantation de cellules souches hématopoïétiques et de progéniteurs hématopoïétiques ont ensuite permis d'assigner à ces deux miARN un rôle dans la détermination du destin cellulaire hématopoïétique. La deuxième modélisation s'intéresse directement aux interactions des miARN avec les ARNm afin de déterminer les cibles des miARN. Ces travaux ont permis la mise au point d'une méthode simple de prédiction de cibles de miARN dont les performances sont meilleures que les outils courant. Cette modélisation a aussi permis de mettre en lumière certaines conséquences insoupçonnées de l'effet des miARN, telle que la spécificité des cibles de miARN au contexte cellulaire et l'effet de saturation de certains ARNm par les miARN. Cette méthode peut également être utilisée pour identifier des ARNm dont la surexpression fait augmenter un autre ARNm par l'entremise de miARN partagés et dont les effets sur les ARNm non ciblés seraient minimaux.