250 resultados para ACCUPYC 1330 analyser
Resumo:
Introduction : Cette étude vise à évaluer la stabilité de la chirurgie LeFort I multisegmentaire à moyen (fin du traitement orthodontique) et à long termes dans les trois plans de l'espace (transversal, antéro-postérieur et vertical). Matériel et méthodes : L'échantillon étudié est composé de 31 patients traités en clinique privée, ayant eu une chirurgie LeFort I multisegmentaire en deux, trois ou quatre morceaux, et ayant terminé leur traitement orthodontique. Parmi eux, 17 patients ayant terminé leur traitement orthodontique depuis plus de deux ans (moyenne de trois ans post-traitement) ont permis d'évaluer la stabilité de la procédure chirurgicale à long terme. La collecte des données a été réalisée sur des modèles et des radiographies céphalométriques latérales pris à des temps précis tout au long du traitement orthodontique, ainsi que pendant la période de contention. Concernant l'analyse statistique, des T-tests et des corrélations de Pearson ont été utilisés. Le test de Bland-Altman et le coefficient de corrélation intra-classe ont permis d'analyser les fiabilités intra-examinateur et inter-examinateurs. Résultats : Une récidive transverse significative, mais très faible cliniquement, est constatée aux niveaux prémolaires et molaires entre la chirurgie et la fin du traitement orthodontique. Elle est corrélée avec l’expansion totale réalisée. Cette récidive transverse est non significative suite au traitement orthodontique. Aucune corrélation statistiquement significative n'est mise en évidence entre le nombre de segments et la récidive transverse postchirurgicale. Une variation de certaines mesures antéro-postérieures et verticales statistiquement significative, mais faible cliniquement, est notée entre la chirurgie et la fin du traitement orthodontique (avancement et impaction postérieure). Pour les mesures antéro-postérieures et verticales, aucun changement n'est statistiquement significatif suite au traitement orthodontique. Conclusion : Pour l'échantillon étudié, la stabilité de l'ostéotomie de type LeFort I multisegmentaire est très bonne, dans les trois plans de l'espace étudiés.
Resumo:
Cette thèse analyse le corps dystopique dans La Servante Ecarlate. Elle vise à examiner les façons dont le pouvoir masculiniste subjugue les servantes à travers l'objectivation et l'effacement de leur corps, puis à analyser le corps féminin comme un élément perturbateur, un site où se produit une constante subversion du pouvoir tout au long du roman. L'introduction offre une brève discussion sur la raison derrière le choix de La Servante Ecarlate comme une étude de cas, qui est dans le but de développer le concept du corps dystopique à partir d'un point de vue féministe. Elle délimite aussi mon argument sur le corps dystopique et le pouvoir. Le premier chapitre intitulé ‟Perspectives Critiques” présente une revue critique de la littérature, introduit ma contribution à l'étude du roman, et expose mes arguments sur l'utopie féministe, la dystopie, le corps dystopique et la circulation du pouvoir. Dans le deuxième chapitre intitulé ‟Le Corps Dystopique” je démontre que la dystopie dans une certaine mesure est déjà profondément enracinée dans le présent. Cette section se concentre sur les différents aspects de la dystopie principalement la reproduction, la sexualité, la surveillance et le code vestimentaire tout en étudiant leur impact sur le corps de la servante. Ces aspects sont abordés en détail dans des sous-chapitres séparés. Le dernier chapitre intitulé ‟La Subversion du Pouvoir” examine dans un premier lieu le mode d'échange de pouvoir entre le commandant et son épouse Serena Joy. Il étudie les façons dont chacun des personnages se positionne par rapport au pouvoir afin d’exploiter le corps d’Offred. Puis, il examine l'ironie qui se cache derrière le jeu de pouvoir constant dans le roman, dévoilant ainsi la perpétuation de la dystopie corporelle étant donné que le corps de la femme ne cesse d'être l'objet de la lutte. Ce travail étudie l'expérience corporelle de la femme dans un régime totalitaire et les façons dont le corps féminin devient dystopique. Il présente le corps féminin comme la proie des hommes et des femmes, et la dystopie comme étroitement dépendante et générée par la conception de ce corps dans la société de Gilead. Mots clés: Dystopie, Corps, Pouvoir, Féminisme, Ironie, Margaret Atwood
Resumo:
Entièrement réalisé grâce au programme LaTeX (http://www.latex-project.org/)
Resumo:
Dans son ouvrage Shell Shock Cinema, publié en 2009, Anton Kaes se distancie fortement du travail fondateur et classique de Siegfried Kracauer, From Caligari to Hitler, publiée en 1947, et portant sur le cinéma pendant la période de Weimar. Réfutant la thèse de Kracauer selon laquelle un inconscient collectif allemand annonce la montée du nazisme dans le cinéma de l’entre-deux-guerres, Kaes affirme au contraire que le shell shock, héritage de la Première Guerre mondiale, est l’un des moteurs du cinéma weimarien. Les travaux de Kaes s’inscrivent dans une historiographie en renouvellement qui, confrontant également la thèse de Kracauer, met désormais l’accent sur la Première Guerre mondiale, et non sur la Seconde Guerre mondiale, pour mieux comprendre et analyser le cinéma weimarien. Ce mémoire, tout en étudiant de façon détaillée l’historiographie du sujet, tend à approfondir et à réévaluer la thèse d’Anton Kaes en l’exposant à davantage de films représentant des traumatismes personnels, des traumatismes sociaux et des chocs post-traumatiques (CPT). Ces maux sont exacerbés par des tensions sociopolitiques – insurrection de janvier 1919, Traité de Versailles, occupation de la Ruhr, l’inflation de 1923-24, etc. – alimentant à la fois des représentations symboliques et concrètes d’expériences traumatisantes qui caractérisent l’ensemble du cinéma weimarien.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Les produits du terroir occupent une place privilégiée dans le goût des consommateurs qui, aujourd’hui, s’intéressent davantage à connaître la provenance et les qualités des produits qu’ils consomment. Le Mexique a une grande variété de produits du terroir, appris et transmis aux producteurs de génération en génération, mais certains manquent de protection ou la protection est inefficace. Les producteurs du Mexique vivent souvent dans des conditions marginales, et l'imitation de leurs produits résulte en une réduction de leurs ventes. Ils sont souvent contraints à changer de métier. Cette situation met en péril le patrimoine national en raison de l’abandon des connaissances traditionnelles, lesquelles représentent l'identité et la diversité culturelle de la nation mexicaine. La « Ley de la Propiedad Industrial » (LPI) prévoit l'appellation d’origine et la marque collective en tant que mécanismes de protection; cependant, ils ne sont pas toujours adéquats pour assurer une protection efficace des produits du terroir. Notre objectif est d'analyser si l'inclusion de l’indication géographique à la LPI peut favoriser l’enregistrement des produits du terroir qui sont à risque de disparaître. Cette étude fait donc ressortir la nécessité de modifier la LPI afin qu’elle réponde mieux aux besoins et aux réalités du Mexique.
Resumo:
Les anomalies du tube neural (ATN), incluant l'anencéphalie et le spina-bifida, représentent un groupe de malformations congénitales très fréquentes chez l'homme. Ces anomalies sont causées par un défaut partiel ou complet de la fermeture du tube neurale au cours de l'embryogenèse. Les ATN ont une étiologie complexe et multifactorielle impliquant des facteurs environnementaux et génétiques. La voie de signalisation non-canonique du Frizzled (Fz)/Dishevelled (Dvl) contrôle la polarité cellulaire planaire (PCP) et le processus morphogénétique appelé l’extension convergente qui est essentiel pour la gastrulation et la fermeture du tube neural. Très important, des mutations des gènes de cette voie étaient fortement associées aux ATN chez la souris et l’humain. Scribble est un gène de la voie PCP qui cause une sévère ATN chez la souris Circletail. Notre étude vise à analyser le rôle de SCRIBBLE1 dans les ATN humains par des analyses de séquence de son cadre de lecture et ses jonctions exon-introns. Notre étude comporte 396 patients recrutés au Centre Spina Bifida de l’hôpital Gaslini en Gènes, Italie et 83 patients recrutés au Centre Spina Bifida de l’hôpital Sainte Justine. Les patients sont affectés par plusieurs formes d’ATN. Nous avons identifié neuf mutations rares et non synonymes chez 10 patients, p.Asp93Ala (c. 435G>A), p.Gly145Arg (c. 278A>C), p.Gly263Ser (c. 786C>A), p.Gly469Ser (c. 1405G>A), p.Pro649His (c. 1946C>A), p.Gln808His (c. 2424G>T), p.Val1066Met (c. 3196G>A), p.Arg1150Gln (c. 3480G>A) et p.Thr1422Met (c. 4266C>T). Cinque mutations, p.Gly263Ser, p.Pro649His, p.Gln808His, p.Arg1150Gln, p.Thr1422Met, étaient absentes dans les contrôles analysés et prédites d’être pathogéniques in silico. Cette étude montre que des mutations rares dans SCRIB1 pourraient augmenter le risque des ATN dans une fraction des patients. L’identification des gènes prédisposant aux ATN nous aidera à mieux comprendre les mécanismes pathogéniques impliqués dans ces maladies.
Resumo:
Au Mali, une loi hospitalière a été adoptée en 2002 pour définir le cadre institutionnel d’une réforme majeure. Cette loi a décrété des transformations substantielles de la structure interne, tant administrative que clinique des établissements publics hospitaliers notamment l’implication des populations locales dans la prise de décision de l’établissement, l’autonomie administrative et financière à travers la délégation budgétaire et l’implication des professionnels de santé à la gestion, l’intégration des services de spécialité et la participation du secteur privé au service public hospitalier. Cependant, la capacité des hôpitaux à réussir les transformations prévues a été remise en question par la majorité des acteurs internes et externes. L’objectif de cette thèse a été d’étudier de quelle manière l’hôpital malien se transforme sous la pression de la décentralisation des pouvoirs de l’État et d’étudier comment les groupes d’acteurs réagissent face à ces changements à partir de deux cadres d’analyse. Le premier cadre intègre les caractéristiques essentielles des transformations hospitalières en termes de différents types de décentralisation et le second cadre inspiré des travaux de Crozier et coll. (1977) analyse les jeux de pouvoir entre les groupes d’acteurs hospitaliers selon deux niveaux à savoir un niveau stratégique et systémique. Pour cela, nous avons conduit une étude multiple de deux cas et utilisé trois modes de collecte des données à savoir les entrevues semi-structurées auprès des informateurs clés, l’analyse documentaire, et l’observation lors de réunions. Dans un premier temps, les analyses ont révélé pour les changements intervenus dans la structure, selon l’importance des responsabilités attribuées à l’hôpital public, (1) plusieurs variantes de la décentralisation. Globalement, l’intention politique était focalisée sur une délégation puis une déconcentration et une dévolution; les mécanismes mis en place ont penché plus vers une déconcentration puis une délégation et une dévolution tandis que les transformations réellement effectuées dans les établissements publics hospitaliers ont plutôt confirmé une déconcentration en plus d’une délégation particulièrement dans le cas de l’implication des populations locales dans la gestion hospitalière. Tandis que l’hôpital public pouvait faire des recettes à partir du recouvrement partiel des coûts des soins auprès des usagers, l’État gardait une main forte sur la gestion financière et la gestion du personnel, et définissait les directives et les objectifs à poursuivre. (2) Les analyses apportent une compréhension des liens existant entre les différents éléments du processus de réforme, le type de mécanisme mis en place dans le cadre de la réforme semble déterminer le type de transformation effectué selon les fonctions que peut assurer l’hôpital public. La logique traduit le passage de la délégation vers une déconcentration qui est jugée comme étant la forme la moins poussée d’une décentralisation. Dans un deuxième temps, les résultats confirment la présence de conflit entre les normes professionnelles établies et reconnues par les professionnels de santé et les normes organisationnelles et institutionnelles mises en avant par la réforme. Elles sont défendues par la majorité des gestionnaires qui sont imputables face aux autorités alors que les normes professionnelles dominent dans les services cliniques. Les deux cas ont mis en évidence le soutien de leur direction générale, il existait une tension dans les réactions des médecins, qui a été variable selon le type de changement structurel visé, tandis que les infirmiers se sont montrés plutôt accessibles face aux nouvelles mesures introduites par la réforme. L’une des originalités de cette thèse tient au fait que très peu de travaux sur les pays en développement ont tenté d’opérationnaliser de façon multidimensionnelle les concepts de décentralisation avant d’analyser les variantes susceptibles d’exister entre eux et les stratégies développées par les groupes d’acteurs de l’hôpital. En outre, alors que la pertinence de la prise en compte des caractéristiques du contexte organisationnel dans la mise en place des réformes des systèmes de soins est au cœur des préoccupations, ce travail est l’un des premiers à analyser l’influence de l’interaction entre le processus de réforme hospitalière et les prises de position des acteurs. Les résultats de cette thèse fournissent des recommandations aux décideurs politiques et aux gestionnaires quant aux modes de changement structurel à privilégier ou en éviter dans la planification, l’exécution et la mise en œuvre du processus de réforme hospitalière en fonction des caractéristiques du contexte organisationnel sanitaire. La planification de la réforme est essentielle : Élaborer un projet d’établissement discuté et validé par l’ensemble des acteurs de l’hôpital. Ce projet doit être compatible avec les objectifs du schéma d’organisation sanitaire nationale et déterminer les moyens en personnel et en équipements, dont l’hôpital doit disposer pour réaliser ses objectifs. Concevoir un cadre budgétaire et financier hospitalier flexible (qui va alléger la chaine de prise de décision), sur lequel reposera le nouveau système de gestion des hôpitaux. La capacité de mobilisation et d’exécution des ressources hospitalières devrait renforcer l’autonomie de gestion. Enfin, promouvoir une culture de l’évaluation et faciliter les évaluations périodiques de la mise en œuvre de la réforme hospitalière par des organismes d’évaluation externes et indépendants.
Resumo:
Nous ne pouvons, désormais, ignorer l’implication des aidants familiaux au sein du dispositif des soins de santé. Lors de l’apparition d’une maladie chronique, telle une démence de type Alzheimer, certains aidants prennent considérablement part dans les soins, au risque de sacrifier leur propre santé physique et mentale. Cette population est maintenant considérée vulnérable sur les plans physiques, psychologiques et sociaux, et requiert un soutien adapté à ses besoins. Par ailleurs, la gestion de la prise en charge, ainsi que les stratégies employées par les aidants, sont loin d’être homogènes et varient d’un aidant à un autre. Objectif : Afin d’améliorer le soutien destiné aux aidants, ce mémoire vise à illustrer l’importance de considérer les types de soutien adoptés et à analyser le sens donné par l’aidant dans le soutien envers un proche atteint de démence de type Alzheimer. Sujets : Six aidants familiaux soutenant un proche (conjoint(e) ou parent) atteint de démence de type Alzheimer ont été rencontrés à plusieurs reprises, à un intervalle d’une année et demi, et ce jusqu’au décès du proche. Méthode : L’approche qualitative longitudinale a permis l’analyse des 16 entretiens afin de mieux cerner les types de soutien employés par les aidants à partir des typologies d’aidants élaborées par Clément, Gagnon, & Rolland (2005) et Pennec (2002) et l’identité d’amour de compassion détaillée par Underwood (2009). Les identités décrites par ces auteurs s’avèrent être des idéaltypes inexistants tels quels dans la réalité. Résultats : À l’exception d’un sujet, tous les aidants ont adopté des traits et des stratégies de gestion de prise en charge se rapportant à plus d’une identité d’aidant. Dans le cas de l’aidante à qui nous n’avons pas pu apposer une identité, peu d’information au niveau de ses stratégies dans la gestion de la prise en charge a été partagée. Ceci serait probablement dû au fait que l’aidante est très peu organisée dans le soutien et qu’elle prend peu d’initiatives, étant elle-même atteinte de démence de type Alzheimer. Conclusion : Afin de mieux adapter les services et le soutien destinés aux aidants familiaux, il importe de mieux comprendre les stratégies de soutien des aidants et leur évolution.
Resumo:
Grâce aux nanotechnologies, l’être humain peut maîtriser la matière à l’échelle du nanomètre — soit au niveau des atomes et des molécules. Les matériaux obtenus suite à ces manipulations présentent des propriétés nouvelles qui les rendent très intéressants pour nombre d’applications techniques, et ce dans tous les domaines technoscientifiques. Ainsi, les nanotechnologies sont souvent considérées comme les prémisses d’une profonde révolution technologique et sociale. Toutefois, si les nanotechnologies intéressent investisseurs, gouvernement, entreprises et universités, elles soulèvent aussi des questions éthiques, notamment au sujet de leur toxicité, de leurs retombées et de la modification de l’être humain. À ces questions s’ajoutent plusieurs interrogations sur la gouvernance des nanotechnologies : comment, en effet, encadrer en amont le développement de celles-ci pour éviter d’éventuelles conséquences néfastes en aval? Parmi ces interrogations, le rôle des médias dans les relations entre les développeurs de nanotechnologies et le public est souvent mentionné. Certains voient dans les médias un acteur auquel les chercheurs pourraient recourir pour établir un dialogue avec le public afin d’assurer un développement harmonieux des nanotechnologies. Si cette recommandation semble très pertinente, il n’existe, à notre connaissance, aucune étude empirique pour en vérifier la faisabilité auprès des acteurs concernés (chercheurs, médias, etc.). Dans le cadre de cette thèse, nous avons donc voulu examiner et analyser les perceptions des chercheurs et des journalistes québécois envers des initiatives médiatiques pour baliser le développement des nanotechnologies. Pour ce faire, nous avons procédé à une étude qualitative auprès de vingt (20) chercheurs en nanobiotechnologies/nanomédecine et dix (10) journalistes spécialisés en vulgarisation scientifique. L’analyse des entretiens avec les répondants a révélé que si les acteurs rencontrés sont favorables envers de telles initiatives, il existe plusieurs contraintes pouvant gêner une telle entreprise. Suite à l’examen de ces contraintes, nous avons suggéré des initiatives concrètes que les chercheurs québécois pourraient mettre en place pour mieux baliser le développement des nanotechnologies à l’aide d’un dialogue avec le public. Ces suggestions consistent notamment à créer des médias privés pour les chercheurs, à recourir aux médias indépendants et à investir le web. De telles initiatives, cependant, ne peuvent s’obtenir qu’au prix d’un remaniement des priorités des chercheurs.
Resumo:
L'agriculture biologique est issue d'une longue lutte du consommateur et du citoyen pour connaître et contrôler la qualité de son alimentation. Sa popularité montante confirme que la disponibilité de l'information sur l'offre joue un rôle économique et social central auprès de la demande. Cette tendance appuie l'émergence d'un nouvel élément au sein du corpus des droits de la personne : le droit à l'information. Cette étude aborde les étapes de sa formation et prend pour exemple la filière agroalimentaire biologique. Elle représente un modèle avant-gardiste de l'hybridation entre le droit privé et le droit public. Nous examinons en premier lieu comment l'activité des secteurs agroalimentaires civils et privés a contribué à fomenter le désir d'information du consommateur, pour ensuite le mettre en péril. Parallèlement à cela, nous proposons d'analyser les effets et l'influence du corpus de droits et de principes du développement durable sur la filière biologique, mais surtout sur la reconnaissance du besoin d'information pour le consommateur. Enfin, nous faisons un tour d'horizon de la réglementation publique de l'appellation biologique, de son label et de son étiquette. Pour cela, nous évaluons les mesures en place selon les critères de la véracité, de l'accessibilité et de l'exhaustivité de l'information divulguée au consommateur. À la lumière de notre analyse, le consommateur peut tirer ses propres conclusions sur les meilleures réponses normatives à ses besoins. Quelles mesures entre le droit transnational, le droit international et le droit national offrent le meilleur résultat? Laquelle de ces formes juridiques s'avère en mesure de promouvoir une consommation responsable où le consommateur ne fait plus face aux obstacles à son choix éclairé?
Resumo:
La toxine thermostable d’E.coli (STb) est une cause de diarrhée chez l’homme et l’animal. STb se lie au sulfatide, son récepteur, puis s’internalise. Dans le cytoplasme, par une cascade d’événements, STb déclenche l’ouverture des canaux ioniques permettant la sécrétion des ions et la perte d’eau menant à la diarrhée. Les jonctions serrées forment une barrière physique intercellulaire dans les cellules épithéliales intestinales, contrôlant ainsi le flux paracellulaire des ions et de l’eau. Les jonctions serrées sont affectées par divers pathogènes et par leurs toxines. À ce jour, l’effet de STb sur les jonctions serrées n’a pas été étudié. L’étude entreprise visait à explorer l’effet de STb sur les jonctions serrées et la barrière épithéliale des cellules intestinales. Des cellules épithéliales intestinales du colon humain (T84) ont été traitées pendant 24h soit avec la toxine STb purifiée soit avec une souche d’E.coli exprimant STb. La résistance transépithéliale (TER), le flux de marqueurs paracellulaires et la microscopie confocale ont été utilisés pour analyser les effets de STb sur les jonctions serrées. Les monocouches traitées par la souche E.coli exprimant STb et la toxine STb purifiée ont manifesté une forte réduction de TER (p<0.0001) parallèlement à une augmentation significative de la perméabilité paracellulaire à l’Albumine de Sérum Bovin marqué avec l’IsoThioCyanate Fluoroscéine, BSA-FITC (p<0.0001) comparativement aux cellules non traitées et aux cellules traitées par une souche d’E.coli commensale non-toxinogène. L’augmentation de la perméabilité paracellulaire induite par STb a été associée à une dissolution générale et une condensation des fibres de stress centrales des filaments d’actine. Le réarrangement des filaments d’actine a été accompagné par une redistribution et une fragmentation des protéines des jonctions serrées dont l’occludine, la claudine-1 et la Zonula Occludens-1. Les mêmes modifications on été observées après l’intoxication des cellules T84 avec un octapeptide synthétique retrouvé dans la séquence de STb correspondant à une séquence consensus de la toxine ZOT de Vibrio cholerae, impliquée dans la réorganisation des jonctions serrées. Cet effet n’a pas été observé lorsque les cellules ont été traitées avec un octapeptide synthétique comportant les mêmes acides aminés mais distribués de façon aléatoire ou avec la toxine mutée (D30V). Nos résultats montrent pour la première fois que STb induit le dysfonctionnement de la barrière épithéliale intestinale en modifiant la distribution des protéines des jonctions serrées. Ces résultats ouvrent une nouvelle voie pour la compréhension de la pathogenèse de diarrhée causée par la toxine STb.
Resumo:
Les simulations ont été implémentées avec le programme Java.
Resumo:
La variabilité spatiale et temporelle de l’écoulement en rivière contribue à créer une mosaïque d’habitat dynamique qui soutient la diversité écologique. Une des questions fondamentales en écohydraulique est de déterminer quelles sont les échelles spatiales et temporelles de variation de l’habitat les plus importantes pour les organismes à divers stades de vie. L’objectif général de la thèse consiste à examiner les liens entre la variabilité de l’habitat et le comportement du saumon Atlantique juvénile. Plus spécifiquement, trois thèmes sont abordés : la turbulence en tant que variable d’habitat du poisson, les échelles spatiales et temporelles de sélection de l’habitat et la variabilité individuelle du comportement du poisson. À l’aide de données empiriques détaillées et d’analyses statistiques variées, nos objectifs étaient de 1) quantifier les liens causaux entre les variables d’habitat du poisson « usuelles » et les propriétés turbulentes à échelles multiples; 2) tester l’utilisation d’un chenal portatif pour analyser l’effet des propriétés turbulentes sur les probabilités de capture de proie et du comportement alimentaire des saumons juvéniles; 3) analyser les échelles spatiales et temporelles de sélection de l’habitat dans un tronçon l’été et l’automne; 4) examiner la variation individuelle saisonnière et journalière des patrons d’activité, d’utilisation de l’habitat et de leur interaction; 5) investiguer la variation individuelle du comportement spatial en relation aux fluctuations environnementales. La thèse procure une caractérisation détaillée de la turbulence dans les mouilles et les seuils et montre que la capacité des variables d’habitat du poisson usuelles à expliquer les propriétés turbulentes est relativement basse, surtout dans les petites échelles, mais varie de façon importante entre les unités morphologiques. D’un point de vue pratique, ce niveau de complexité suggère que la turbulence devrait être considérée comme une variable écologique distincte. Dans une deuxième expérience, en utilisant un chenal portatif in situ, nous n’avons pas confirmé de façon concluante, ni écarté l’effet de la turbulence sur la probabilité de capture des proies, mais avons observé une sélection préférentielle de localisations où la turbulence était relativement faible. La sélection d’habitats de faible turbulence a aussi été observée en conditions naturelles dans une étude basée sur des observations pour laquelle 66 poissons ont été marqués à l’aide de transpondeurs passifs et suivis pendant trois mois dans un tronçon de rivière à l’aide d’un réseau d’antennes enfouies dans le lit. La sélection de l’habitat était dépendante de l’échelle d’observation. Les poissons étaient associés aux profondeurs modérées à micro-échelle, mais aussi à des profondeurs plus élevées à l’échelle des patchs. De plus, l’étendue d’habitats utilisés a augmenté de façon asymptotique avec l’échelle temporelle. L’échelle d’une heure a été considérée comme optimale pour décrire l’habitat utilisé dans une journée et l’échelle de trois jours pour décrire l’habitat utilisé dans un mois. Le suivi individuel a révélé une forte variabilité inter-individuelle des patrons d’activité, certains individus étant principalement nocturnes alors que d’autres ont fréquemment changé de patrons d’activité. Les changements de patrons d’activité étaient liés aux variables environnementales, mais aussi à l’utilisation de l’habitat des individus, ce qui pourrait signifier que l’utilisation d’habitats suboptimaux engendre la nécessité d’augmenter l’activité diurne, quand l’apport alimentaire et le risque de prédation sont plus élevés. La variabilité inter-individuelle élevée a aussi été observée dans le comportement spatial. La plupart des poissons ont présenté une faible mobilité la plupart des jours, mais ont occasionnellement effectué des mouvements de forte amplitude. En fait, la variabilité inter-individuelle a compté pour seulement 12-17% de la variabilité totale de la mobilité des poissons. Ces résultats questionnent la prémisse que la population soit composée de fractions d’individus sédentaires et mobiles. La variation individuelle journalière suggère que la mobilité est une réponse à des changements des conditions plutôt qu’à un trait de comportement individuel.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.