225 resultados para Tape


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La production biologique d'hydrogène (H2) représente une technologie possible pour la production à grande échelle durable de H2 nécessaire pour l'économie future de l'hydrogène. Cependant, l'obstacle majeur à l'élaboration d'un processus pratique a été la faiblesse des rendements qui sont obtenus, généralement autour de 25%, bien en sous des rendements pouvant être atteints pour la production de biocarburants à partir d'autres processus. L'objectif de cette thèse était de tenter d'améliorer la production d'H2 par la manipulation physiologique et le génie métabolique. Une hypothèse qui a été étudiée était que la production d'H2 pourrait être améliorée et rendue plus économique en utilisant un procédé de fermentation microaérobie sombre car cela pourrait fournir la puissance supplémentaire nécessaire pour une conversion plus complète du substrat et donc une production plus grande d'H2 sans l'aide de l'énergie lumineuse. Les concentrations optimales d’O2 pour la production de H2 microaérobie ont été examinées ainsi que l'impact des sources de carbone et d'azote sur le processus. La recherche présentée ici a démontré la capacité de Rhodobacter capsulatus JP91 hup- (un mutant déficient d’absorption-hydrogénase) de produire de l'H2 sous condition microaérobie sombre avec une limitation dans des quantités d’O2 et d'azote fixé. D'autres travaux devraient être entrepris pour augmenter les rendements d'H2 en utilisant cette technologie. De plus, un processus de photofermentation a été créé pour améliorer le rendement d’H2 à partir du glucose à l'aide de R. capsulatus JP91 hup- soit en mode non renouvelé (batch) et / ou en conditions de culture en continu. Certains défis techniques ont été surmontés en mettant en place des conditions adéquates de fonctionnement pour un rendement accru d'H2. Un rendement maximal de 3,3 mols de H2/ mol de glucose a été trouvé pour les cultures en batch tandis que pour les cultures en continu, il était de 10,3 mols H2/ mol de glucose, beaucoup plus élevé que celui rapporté antérieurement et proche de la valeur maximale théorique de 12 mols H2/ mol de glucose. Dans les cultures en batch l'efficacité maximale de conversion d’énergie lumineuse était de 0,7% alors qu'elle était de 1,34% dans les cultures en continu avec un rendement de conversion maximum de la valeur de chauffage du glucose de 91,14%. Diverses autres approches pour l'augmentation des rendements des processus de photofermentation sont proposées. Les résultats globaux indiquent qu'un processus photofermentatif efficace de production d'H2 à partir du glucose en une seule étape avec des cultures en continu dans des photobioréacteurs pourrait être développé ce qui serait un processus beaucoup plus prometteur que les processus en deux étapes ou avec les co-cultures étudiés antérieurément. En outre, l'expression hétérologue d’hydrogenase a été utilisée comme une stratégie d'ingénierie métabolique afin d'améliorer la production d'H2 par fermentation. La capacité d'exprimer une hydrogénase d'une espèce avec des gènes de maturation d'une autre espèce a été examinée. Une stratégie a démontré que la protéine HydA orpheline de R. rubrum est fonctionnelle et active lorsque co-exprimée chez Escherichia coli avec HydE, HydF et HydG provenant d'organisme différent. La co-expression des gènes [FeFe]-hydrogénase structurels et de maturation dans des micro-organismes qui n'ont pas une [FeFe]-hydrogénase indigène peut entraîner le succès dans l'assemblage et la biosynthèse d'hydrogénase active. Toutefois, d'autres facteurs peuvent être nécessaires pour obtenir des rendements considérablement augmentés en protéines ainsi que l'activité spécifique des hydrogénases recombinantes. Une autre stratégie a consisté à surexprimer une [FeFe]-hydrogénase très active dans une souche hôte de E. coli. L'expression d'une hydrogénase qui peut interagir directement avec le NADPH est souhaitable car cela, plutôt que de la ferrédoxine réduite, est naturellement produit par le métabolisme. Toutefois, la maturation de ce type d'hydrogénase chez E. coli n'a pas été rapportée auparavant. L'opéron hnd (hndA, B, C, D) de Desulfovibrio fructosovorans code pour une [FeFe]-hydrogénase NADP-dépendante, a été exprimé dans différentes souches d’E. coli avec les gènes de maturation hydE, hydF et hydG de Clostridium acetobutylicum. L'activité de l'hydrogénase a été détectée in vitro, donc une NADP-dépendante [FeFe]-hydrogénase multimérique active a été exprimée avec succès chez E. coli pour la première fois. Les recherches futures pourraient conduire à l'expression de cette enzyme chez les souches de E. coli qui produisent plus de NADPH, ouvrant la voie à une augmentation des rendements d'hydrogène via la voie des pentoses phosphates.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Canada, l'Australie et l'Union européenne sont des destinations convoitées par des immigrants hautement qualifiés dont le nombre augmente chaque année. La mobilité croissante de ces travailleurs, soutenue par des politiques favorables à leur intégration à l'échelle nationale, pose des défis de grande envergure, alors que celles-ci tentent de conjuguer des objectifs économiques avec le redressement démographique à long terme. La reconnaissance des titres de compétences étrangers (RTCE) figure toujours parmi les principaux défis de cette gestion des flux migratoires, s’imposant dans les processus d'admission aux professions réglementées au Québec comme dans les autres juridictions provinciales, nationales et communautaires. Notre recherche vise à expliciter la corrélation entre le modèle de sélection économique choisi par le Québec particulièrement et la difficile intégration en emploi des nouveaux résidents permanents qualifiés. Nous examinons l’utilité de réformer la procédure administrative de la demande d’immigration en amont pour y inclure une étape obligatoire de RTCE par les organismes réglementaires compétents. Étudiant des dispositifs juridiques en vigueur à cet effet en Australie et en Union européenne, nous cherchons à déterminer si la transposition d'une telle rigueur de sélection est réaliste et souhaitable dans le contexte spécifique québécois.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous proposons de construire un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d’un organe. Nos travaux seront appliqués particulièrement à la construction d'un atlas numérique 3D de la totalité de la cornée humaine incluant la surface antérieure et postérieure à partir des cartes topographiques fournies par le topographe Orbscan II. Nous procédons tout d'abord par normalisation de toute une population de cornées. Dans cette étape, nous nous sommes basés sur l'algorithme de recalage ICP (iterative closest point) pour aligner simultanément les surfaces antérieures et postérieures d'une population de cornée vers les surfaces antérieure et postérieure d'une cornée de référence. En effet, nous avons élaboré une variante de l'algorithme ICP adapté aux images (cartes) de cornées qui tient compte de changement d'échelle pendant le recalage et qui se base sur la recherche par voisinage via la distance euclidienne pour établir la correspondance entre les points. Après, nous avons procédé pour la construction de l'atlas cornéen par le calcul des moyennes des élévations de surfaces antérieures et postérieures recalées et leurs écarts-types associés. Une population de 100 cornées saines a été utilisée pour construire l'atlas cornéen normal. Pour visualiser l’atlas, on a eu recours à des cartes topographiques couleurs similairement à ce qu’offrent déjà les systèmes topographiques actuels. Enfin, des observations ont été réalisées sur l'atlas cornéen reflétant sa précision et permettant de développer une meilleure connaissance de l’anatomie cornéenne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Dans cet article, l’auteur, qui est docteur en droit et doctorant en sociologie, tente de refaire le long cheminement historique qui conduit à la reconnaissance de la vie privée, telle que nous la connaissons aujourd’hui dans les sociétés du capitalisme libéral. Texte synthèse d’une première étape d’une recherche plus vaste sur les conséquences de l’introduction des NTIC à l’égard du respect de la vie privée dans nos sociétés contemporaines, ce texte met en lumière un certain nombre de phénomènes à l’égard du concept de vie privée. D’abord, l’auteur constate le décalage fondamental qui existe entre la protection de la vie privée des individus en fonction de la classe sociale à laquelle ils sont associés et ce, à travers l’ensemble des modes de production de la richesse sociale ayant existé historiquement. Ensuite, l’auteur montre que les sociétés où l’espace public fut le plus étroit sont également celles où la vie privée fut, dans les faits, le moins bien protégé. Les sociétés ayant poussé le plus loin le concept de privatisation sont, du point de vue des valeurs sociales associées au progrès, les plus arriérés et les moins intéressantes. En conséquence, de l’opinion de l’auteur, les tentatives des courants néolibéraux d’aller vers une plus large privatisation de la société constitueraient un nouveau recul pour la protection de la vie privée elle-même. Plus fondamentalement, l’auteur conclut que la vie privée « n’est que l’expression matérielle et symbolique des rapports de pouvoir dans la société; ce n’est que le nom que nous donnons aux privilèges des uns à l’égard des droits des autres ». Finalement, l’auteur s’interroge sur les conséquences, à l’égard de la protection de la vie privée, de l’introduction des NTIC. À son opinion, et contrairement aux points de vue généralement entendus sur cette question, les NTIC ne constituent pas, malgré les apparences, un changement qualitatif ou d’échelle justifiant la mise en place des nouvelles normes juridiques qui auraient pour conséquence de réduire l’espace public et celui de la liberté d’expression dans le cyberespace, et qui constitueraient, dans les faits, une nouvelle forme de censure."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: En réponse aux exigences du gouvernement fédéral en ce qui concerne les temps d'attente pour les chirurgies électives d’hanche et du genou, les Organismes Canadiens de santé ont adopté des stratégies de gestion pour les listes d'attente. Cependant, il n'existe pas actuellement aucune information disponible concernant les effets imprévus, positive ou négative, de ces stratégies. Méthodologie: Un modèle qui a été construit est tombé en panne la gestion de la chirurgie d’hanche et du genou en différentes étapes, afin d'identifier les effets imprévus possibles pour chaque étape; le modèle a été validé auprès d'un panel d'experts. Cette étude a choisi quatre études de cas en fonction de leur durabilité: un cas qui a été durable, un cas qui a été modérément durable, et deux cas peu probable d'être durable. Dans cette étude qualitative, nous avons mené 31 entretiens semi-structurés entre Novembre 2010 et Juin 2011 avec les gestionnaires, les infirmières, les thérapeutes et les chirurgiens impliqués dans la gestion des stratégies du temps d’attente pour les chirurgies électives d’hanche et du genou. Les quatre cas ont été sélectionnés à partir de trois provinces / régions. Nous avons analysé les conséquences non intentionnelles aux niveaux systémique et organisationnelle en utilisant les stratégies dans chaque contexte. Enregistrements des entrevues ont été transcrits mot à mot et soumis à l'analyse du cadre. Résultats: Les effets négatifs sont la précarité des stratégies en raison du non-récurrente financement, l'anxiété chez les patients qui ne sont pas prêts pour la chirurgie, une redistribution du temps de chirurgie vers l’orthopédie au détriment des autres interventions chirurgicales, tensions entre les chirurgiens et entre les orthopédistes et anesthésistes, et la pression sur le personnel dans le bloc opératoire et postopératoire. Conclusion: La stratégie d’implémentation aux niveaux national et local devrait prendre en compte les conséquences potentielles, positives et négatives. Il y a des conséquences inattendues à chaque niveau de l'organisation des soins de santé. Individuellement et collectivement, ces conséquences peuvent positivement et négativement affecter les résultats. Par conséquent, la planification de la santé doit analyser et prendre en compte les conséquences inattendues en termes de bonnes résultats inattendues, compromis et les conséquences négatives afin d'améliorer les résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Listeria monocytogenes (L. monocytogenes) est un pathogène majeur en santé publique comme les épisodes de 2008 dans les fromages et les charcuteries l’ont démontré. Au Canada, il n’y a pas de surveillance règlementaire de ce microorganisme dans les étapes précédant la transformation de produits prêts-à-manger. Ainsi, la présence et la circulation de ce microorganisme dans ces environnements est peu documentée. Pour décrire ces phénomènes, nous avons effectué un échantillonnage dans une usine d’abattage et de découpe de porcs au Québec, principalement dans les parcs d’attente, et dans l’environnement de l’abattage et de découpe : les échantillonages ont été effectués après lavage et désinfection sur une période de 2 ans. Un nombre de 874 échantillons a été récoltés. Le protocole de détection utilisé était inspiré de la méthode MFHPB-30 de Santé Canada. Les sérotypes ont été obtenus par PCR et les isolats caractérisés par un génotypage RFLP-PFGE en utilisant les enzymes de restriction Apa1 et Asc1. Nous avons détecté la présence de Listeria monocytogemes dans toutes ces étapes de la production. De ces échantillons positifs, 4 sérotypes (principalement 1/2b) ont émergé. Les patrons PFGE ont démontré la présence d’une variété de génotypes dans les zones d’attente et d’abattage de l’usine et la présence d’un type majeur dans l’environnement de la zone de découpe (le type 1 représentant 96.1% des souches à cette étape). De plus, nous avons démontré des liens entre les souches retrouvés au début de la production, en attente, et les souches retrouvées dans la zone de découpe. Ces résultats suggèrent que Listeria monocytogenes entre dans l’usine avec les animaux, contamine les étapes suivantes de la production et que certaines souches peuvent être sélectionnées et leur croissance favorisé dans l’environnement, devenant majoritaires, persistantes et préoccupantes en regars de la santé publique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les immunoglobulines intraveineuses (IVIg) constituent une préparation polyclonale d’IgG isolée et regroupée à partir du plasma sanguin de multiples donneurs. Initialement utilisé comme traitement de remplacement chez les patients souffrant d’immunodéficience primaire ou secondaire, les IVIg sont maintenant largement utilisées dans le traitement de plusieurs conditions auto-immunes, allergiques ou inflammatoires à une dose élevée, dite immunomodulatrice. Différents mécanismes d’action ont été postulés au fil des années pour expliquer l’effet thérapeutique des IVIg dans les maladies auto-immunes et inflammatoires. Entre autre, un nombre grandissant de données issues de modèles expérimentaux chez l’animal et l’humain suggère que les IVIg induisent l’expansion et augmentent l’action suppressive des cellules T régulatrices (Tregs), par un mécanisme qui demeure encore inconnu. Également, les patients atteints de maladies auto-immunes ou inflammatoires présentent souvent un nombre abaissé de Tregs par rapport aux individus sains. Ainsi, une meilleure compréhension des mécanismes par lesquels les IVIg modulent les cellules T régulatrices est requise afin de permettre un usage plus rationnel de ce produit sanguin en tant qu’alternative thérapeutique dans le traitement des maladies auto-immunes et inflammatoires. Par le biais d’un modèle expérimental d’allergie respiratoire induite par un allergène, nous avons démontré que les IVIg diminuaient significativement l’inflammation au niveau des voies aériennes ce, en association avec une différenciation des Tregs à partir des cellules T non régulatrices du tissu pulmonaire. Nous avons également démontré qu’au sein de notre modèle expérimental, l’effet anti-inflammatoire des IVIg était dépendant des cellules dendritiques CD11c+ (CDs) pulmonaires, puisque cet effet pouvait être complètement reproduit par le transfert adoptif de CDs provenant de souris préalablement traitées par les IVIg. À cet effet, il est déjà établi que les IVIg peuvent moduler l’activation et les propriétés des CDs pour favoriser la tolérance immunitaire et que ces cellules seraient cruciales pour l’induction périphérique des Tregs. C’est pourquoi, nous avons cherché à mieux comprendre comment les IVIg exercent leur effet sur ces cellules. Pour la première fois, nous avons démontré que la fraction d’IgG riche en acide sialique (SA-IVIg) (constituant 2-5% de l’ensemble des IgG des donneurs) interagit avec un récepteur dendritique inhibiteur de type lectine C (DCIR) et active une cascade de signalement intracellulaire initiée par la phosphorylation du motif ITIM qui est responsable des changements observés en faveur de la tolérance immunitaire auprès des cellules dendritiques et des Tregs. L’activité anti-inflammatoire de la composante SA-IVIg a déjà été décrite dans des études antérieures, mais encore une fois le mécanisme par lequel ce traitement modifie la fonction des CDs n’a pas été établi. Nous avons finalement démontré que le récepteur DCIR facilite l’internalisation des molécules d’IgG liées au récepteur et que cette étape est cruciale pour permettre l’induction périphérique des Tregs. En tant que produit sanguin, les IVIg constitue un traitement précieux qui existe en quantité limitée. La caractérisation des mécanismes d’action des IVIg permettra une meilleure utilisation de ce traitement dans un vaste éventail de pathologies auto-immunes et inflammatoires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En ce qui concerne la littérature féministe, il s’y trouve un chevauchement important et intéressant entre le manifesto en tant que forme littéraire et la fiction utopique. Les deux se servent d’une image imaginée de l'avenir ou d'un meilleur état futur pour critiquer et dénoncer tant les conditions actuelles que celles du passée qui ont donné naissance à celles-là. Cette thèse aborde à la fois le manifesto et la fiction utopique / dystopique pour élaborer les conditions de l’espace essentiel des femmes et du féminin. Ce lieu utopique se veut plus qu'un endroit où aller ; il exprime les origines du féminin, lesquelles vont au-delà de ce qui est masculin en visant un épanouissement du féminin en dehors et au-delà de la stricte dichotomie masculin-féminin de la société patriarcale. J'examine d'abord les termes en usage puis je discute du manifesto comme une forme littéraire d'un intérêt particulier pour les écrivains féministes. Je passe ensuite en revue des théories de fiction utopique, lesquelles me conduisent à des possibilités fructueuses du langage pour assurer une voix aux femmes ainsi que l’expression du féminin. Je prends comme exemple le livre The Activist de Renée Gladman pour appuyer mes arguments concernant le pouvoir performatif du manifesto comme une forme qui s’empiète sur la fiction utopique dans le but d'imaginer l'espace du féminin. Dans la deuxième partie de la thèse, j’entre dans une utopie fictive dans le cadre d'une exploration personnelle de ce qu’est le féminin et son expression. Le récit emmène le lecteur au pays de Cwenaland. A chaque étape de la narration d’autres voix percent et découpent le texte. Certaines sont sous la forme d'une image ou d'un portrait, d'autres sont des cris ou des gémissements qui dérangent la voix narrative. Ces voix en tangente et en diagonale enracinent mon utopie fictive dans la diversité d'expérience et d'expression féminine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis la fin de la Guerre froide, la pratique de l’aide humanitaire est principalement devenue l’apanage des Occidentaux et de ses alliés, contribuant à l’émergence d’une norme d’intervention (néo)libérale. Cette recherche vise à déterminer s’il existe une pratique alternative; dans cette optique, le cas de l’humanitarisme cubain sera analysé. À partir d’une revue de la littérature et d’un travail de terrain conduit à Cuba auprès de coopérants ayant servi dans le cadre de « missions internationalistes », cette recherche se déroule selon trois étapes principales. Dans un premier temps, il s’agira, à partir des études réalisées par les auteurs post-foucaldiens tels que Duffield, Pupavac, McFalls et Pandolfi, de déterminer la nouvelle tendance de l’aide humanitaire apparue au sortir de la Guerre froide. Cette dernière a été représentée sous une forme idéal-typique par Laurence McFalls qui a identifié l’exercice de la gouvernementalité (thérapeutique) (néo)libérale sur les terrains d’intervention. Dans un deuxième temps, le coeur du travail consistera à élaborer l’idéal-type du modèle d’intervention cubain à partir des entrevues réalisées à Cuba. Dans cette seconde étape, il conviendra de caractériser la logique de l’action de l’humanitarisme cubain n’ayant pas encore été établie par les chercheurs. La troisième étape reposera sur la comparaison critique entre les deux idéauxtypes ayant été présentés, dans le but, ultimement, de déterminer si l’humanitarisme cubain s’inscrit dans la norme (néo)libérale ou si, au contraire, il présente une alternative à celle-ci. Ceci permettra d’élaborer une réflexion sur l’hégémonie, la domination légitime et la place de l’humanitaire dans les relations internationales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les papillomavirus sont de petits virus à ADN double brin qui infectent les cellules de l’épithélium de la peau et des muqueuses d’une variété de vertébrés causant des lésions bénignes telles des verrues. Certains de ces virus sont également associés au développement de lésions malignes, notamment le cancer du col utérin. La protéine régulatrice E2 des papillomavirus est impliquée dans diverses fonctions contribuant à l’établissement de l’infection par ces virus. Entre autre, E2 régule la transcription des gènes viraux, participe à l’initiation de la réplication de l’ADN viral en s’associant à l’hélicase virale E1 et est responsable du maintien et de la ségrégation de l’épisome viral au cours de la division cellulaire. Toutes ces activités sont attribuables à la capacité de E2 à s’associer au génome viral et à interagir avec des protéines virales et cellulaires. De plus, ces fonctions sont elles-mêmes régulées par des modifications post-traductionnelles de la protéine E2. Plusieurs études ont été réalisées afin de découvrir les mécanismes de régulation des fonctions de E2 mais le rôle exact des différents domaines de E2 dans ces contrôles reste à être défini. En premier lieu, nous nous sommes intéressés à l’interaction entre E2 et Brd4(L) qui avait été définie comme étant essentielle à la ségrégation de l’épisome. Plusieurs caractéristiques associées à la protéine Brd4(L) telles que sa capacité à lier les lysines acétylées des histones, son interaction avec le complexe Mediator et sa participation à l’activation de la transcription en formant un complexe avec pTEFb, nous ont permis d’émettre l’hypothèse que l’interaction E2-Brd4(L) est nécessaire à l’activité transcriptionnelle de E2. Nous avons démontré que la protéine Brd4(L) interagit avec le domaine de transactivation de E2 de divers types de papillomavirus. De plus, cette interaction implique les résidus de E2 essentiels à son activité transcriptionnelle. Ainsi, ces résultats proposent que l’association E2-Brd4(L) serve à la régulation de la transcription des gènes viraux. Dans un second temps, nos recherches se sont concentrées sur l’existence d’une interface de dimérisation au sein du domaine de transactivation de E2 et de son implication dans les activités transcriptionnelles et réplicatives de la protéine. Nos études ont aussi mis en évidence que l’intégrité de la structure de ce domaine contribue au bon fonctionnement de la réplication du génome viral. Cette découverte suggère que la dimérisation de E2 peut réguler l’initiation de la réplication et propose l’existence d’un niveau de régulation additionnel impliquant l’état de la structure quaternaire de la protéine E2 et une modulation de l’interaction entre E1 et E2 à cette étape du cycle viral. Finalement, l’étude de l’instabilité de la protéine E2 nous a permis de définir une région importante dans le domaine flexible de la protéine, nécessaire à sa dégradation par le protéasome. De plus, la présence de résidus conservés localisés dans ce domaine, sont associés à la dégradation et portent la signature d’un signal de localisation nucléaire de type PY-NLS, suggérant que la stabilité de la protéine E2 est régulée par sa localisation au sein de la cellule. Ces études démontrent l’existence de nouvelles stratégies de régulation des activités transcriptionnelle et réplicative de la protéine E2 des papillomavirus. La compréhension de ces mécanismes nous permet de mieux cerner les étapes favorisant l’établissement et la progression du cycle viral et d’identifier de nouvelles cibles thérapeutiques contre les infections aux papillomavirus.