990 resultados para bas
Resumo:
This thesis was created in Word and converted to PDF using Mac OS X 10.7.5 Quartz PDFContext.
Resumo:
La pauvreté monoparentale touche de nombreux pays développés au point que la monoparentalité est restée pendant longtemps associée à la pauvreté. Malgré les efforts de l’État-providence, les systèmes de protection sociale s’avèrent souvent inefficaces et inadaptés aux changements de la structure familiale et de la diversité des modes de résidence. Or, les situations des familles monoparentales ne sont pas semblables d’une société à une autre. Certaines sociétés adoptent des régimes providentiels qui offrent des conditions plutôt favorables aux familles quel que soit leur statut (monoparental ou biparental), tandis que d’autres se caractérisent par des systèmes moins égalitaires et moins favorables aux familles monoparentales. Notre thèse cherche à déconstruire le lien entre la pauvreté et la monoparentalité en poussant plus loin la réflexion sur les régimes providentiels. Le bien-être des familles monoparentales dépend des arrangements institutionnels des régimes qui assurent des ressources à travers les trois piliers que sont l’État, le marché et la famille. Certaines sociétés favorisent le pilier de l’État comme principal pourvoyeur de ressources alors que d’autres mettent l’accent sur le marché. Dans d’autres cas, la solidarité familiale est considérée comme étant fondamentale dans le bien-être des individus. Parmi ces trois piliers, il est souvent difficile de trouver la combinaison la plus appropriée pour protéger les familles monoparentales et leur assurer une certaine sécurité et une autonomie économique. Lorsque les gouvernements adoptent la politique de prise en charge des familles monoparentales, ces dernières deviennent très dépendantes de l’assistance sociale et des programmes d’aide publique. Dans un contexte libéral, les mesures d’incitation au travail qui visent les chefs de famille monoparentale ont plutôt tendance à réduire cette dépendance. Mais dans bien des cas, les familles monoparentales sont amenées à dépendre d’un revenu du marché qui ne les aide pas toujours à sortir de la pauvreté. Lorsque nous regardons le troisième pilier, celui de la famille, il s’avère souvent que les solidarités qui proviennent de cette source sont limitées et occasionnelles et nécessitent parfois une réglementation spéciale pour les dynamiser (comme c’est le cas des pensions alimentaires). L’articulation de ces piliers et leur apport au bien-être des familles monoparentales soulève une question fondamentale : Quelles sont les possibilités pour les chefs de famille monoparentale de fonder et maintenir un ménage autonome qui ne soit ni pauvre ni dans la dépendance par rapport à une seule source de revenu qui peut provenir de l’État, du marché ou de la famille ? Pour examiner cette question, nous avons procédé à des comparaisons internationales et interprovinciales à partir des données du Luxembourg Income Study (LIS). Le choix des comparaisons internationales est très utile pour situer le Québec dans un environnement de régimes providentiels avec un cadre théoriquement et conceptuellement structuré pour comprendre les politiques de lutte contre la pauvreté monoparentale. Cette recherche montre principalement que la pauvreté monoparentale est très problématique dans les régimes qui privilégient le marché comme principal pilier de bien-être. Elle l’est aussi dans certains pays qui privilégient les transferts et adoptent des politiques de prise en charge envers les familles monoparentales qui restent largement désavantagées par rapport aux familles biparentales. Par contre, certains régimes favorisent une complémentarité entre ce que peuvent tirer les familles du marché du travail et ce qu’elles peuvent tirer des ressources de l’État. Généralement, ce genre d’approche mène vers des taux de pauvreté plus faibles chez les familles monoparentales. Le Québec fait partie des sociétés où le marché représente une source fondamentale de bien-être. Toutefois, la pauvreté monoparentale est moins problématique que chez ses voisins d’Amérique du Nord. De nombreux chefs de famille monoparentale dans la province occupent des emplois à temps plein sans être désavantagés. Cependant, les chefs de famille monoparentale qui occupent des emplois à temps partiel sont largement plus exposés à la pauvreté. Pourtant, dans certaines sociétés, particulièrement aux Pays-Bas, ce statut d’emploi offre des conditions meilleures pour la conciliation travail-famille.
Resumo:
L’une des particularités fondamentales caractérisant les cellules végétales des cellules animales est la présence de la paroi cellulaire entourant le protoplaste. La paroi cellulaire joue un rôle primordial dans (1) la protection du protoplaste, (2) est impliquée dans les mécanismes de filtration et (3) est le lieu de maintes réactions biochimiques nécessaires à la régulation du métabolisme et des propriétés mécaniques de la cellule. Les propriétés locales d’élasticité, d’extensibilité, de plasticité et de dureté des composants pariétaux déterminent la géométrie et la forme des cellules lors des processus de différentiation et de morphogenèse. Le but de ma thèse est de comprendre les rôles que jouent les différents composants pariétaux dans le modelage de la géométrie et le contrôle de la croissance des cellules végétales. Pour atteindre cet objectif, le modèle cellulaire sur lequel je me suis basé est le tube pollinique ou gamétophyte mâle. Le tube pollinique est une protubérance cellulaire qui se forme à partir du grain de pollen à la suite de son contact avec le stigmate. Sa fonction est la livraison des cellules spermatiques à l’ovaire pour effectuer la double fécondation. Le tube pollinique est une cellule à croissance apicale, caractérisée par la simple composition de sa paroi et par sa vitesse de croissance qui est la plus rapide du règne végétal. Ces propriétés uniques font du tube pollinique le modèle idéal pour l’étude des effets à courts termes du stress sur la croissance et le métabolisme cellulaire ainsi que sur les propriétés mécaniques de la paroi. La paroi du tube pollinique est composée de trois composantes polysaccharidiques : pectines, cellulose et callose et d’une multitude de protéines. Pour comprendre les effets que jouent ces différents composants dans la régulation de la croissance du tube pollinique, j’ai étudié les effets de mutations, de traitements enzymatiques, de l’hyper-gravité et de la gravité omni-directionnelle sur la paroi du tube pollinique. En utilisant des méthodes de modélisation mathématiques combinées à de la biologie moléculaire et de la microscopie à fluorescence et électronique à haute résolution, j’ai montré que (1) la régulation de la chimie des pectines est primordiale pour le contrôle du taux de croissance et de la forme du tube et que (2) la cellulose détermine le diamètre du tube pollinique en partie sub-apicale. De plus, j’ai examiné le rôle d’un groupe d’enzymes digestives de pectines exprimées durant le développement du tube pollinique : les pectate lyases. J’ai montré que ces enzymes sont requises lors de l’initiation de la germination du pollen. J’ai notamment directement prouvé que les pectate lyases sont sécrétées par le tube pollinique dans le but de faciliter sa pénétration au travers du style.
Resumo:
Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.
Resumo:
Les stimuli naturels projetés sur nos rétines nous fournissent de l’information visuelle riche. Cette information varie le long de propriétés de « bas niveau » telles que la luminance, le contraste, et les fréquences spatiales. Alors qu’une partie de cette information atteint notre conscience, une autre partie est traitée dans le cerveau sans que nous en soyons conscients. Les propriétés de l’information influençant l’activité cérébrale et le comportement de manière consciente versus non-consciente demeurent toutefois peu connues. Cette question a été examinée dans les deux derniers articles de la présente thèse, en exploitant les techniques psychophysiques développées dans les deux premiers articles. Le premier article présente la boîte à outils SHINE (spectrum, histogram, and intensity normalization and equalization), développée afin de permettre le contrôle des propriétés de bas niveau de l'image dans MATLAB. Le deuxième article décrit et valide la technique dite des bulles fréquentielles, qui a été utilisée tout au long des études de cette thèse pour révéler les fréquences spatiales utilisées dans diverses tâches de perception des visages. Cette technique offre les avantages d’une haute résolution au niveau des fréquences spatiales ainsi que d’un faible biais expérimental. Le troisième et le quatrième article portent sur le traitement des fréquences spatiales en fonction de la conscience. Dans le premier cas, la méthode des bulles fréquentielles a été utilisée avec l'amorçage par répétition masquée dans le but d’identifier les fréquences spatiales corrélées avec les réponses comportementales des observateurs lors de la perception du genre de visages présentés de façon consciente versus non-consciente. Les résultats montrent que les mêmes fréquences spatiales influencent de façon significative les temps de réponse dans les deux conditions de conscience, mais dans des sens opposés. Dans le dernier article, la méthode des bulles fréquentielles a été combinée à des enregistrements intracrâniens et au Continuous Flash Suppression (Tsuchiya & Koch, 2005), dans le but de cartographier les fréquences spatiales qui modulent l'activation de structures spécifiques du cerveau (l'insula et l'amygdale) lors de la perception consciente versus non-consciente des expressions faciales émotionnelles. Dans les deux régions, les résultats montrent que la perception non-consciente s'effectue plus rapidement et s’appuie davantage sur les basses fréquences spatiales que la perception consciente. La contribution de cette thèse est donc double. D’une part, des contributions méthodologiques à la recherche en perception visuelle sont apportées par l'introduction de la boîte à outils SHINE ainsi que de la technique des bulles fréquentielles. D’autre part, des indications sur les « corrélats de la conscience » sont fournies à l’aide de deux approches différentes.
Resumo:
De nos jours, l’idée selon laquelle bon nombre d’individus atteints de psychose peuvent se rétablir sensiblement au fil du temps est de plus en plus répandue. Alors que le milieu médical associe le rétablissement à la rémission symptomatique, les usagers de services en santé mentale le voient plutôt comme un processus où l’absence de symptômes n’est pas une condition sine qua non. Ne s’opposant à ni l’un ni l’autre de ces points de vue, le traitement actuel des psychoses vise le retour à un fonctionnement social approprié. Chez les jeunes atteints d’un premier épisode psychotique, une diminution marquée des symptômes après un traitement pharmacologique se traduit rarement en une amélioration significative du fonctionnement, ce qui justifie la mise en place d’interventions psychosociales. On connait aujourd’hui quelques variables associées au fonctionnement social chez cette population, mais celui-ci a peu été étudié de façon spécifique. De même, on connait mal la manière dont ces jeunes vivent leur rétablissement en tant que processus. Cette thèse porte donc sur le rétablissement et le fonctionnement social de jeunes en début de psychose. La première partie consiste en une introduction aux concepts de rétablissement et de réadaptation, et en une revue de la littérature des interventions psychosociales pouvant favoriser leurs rétablissement et fonctionnement. Plus spécifiquement, nous illustrons comment ces interventions peuvent s’appliquer aux adolescents, clientèle sur laquelle peu de littérature existe actuellement. La deuxième partie présente les résultats d’une étude sur la valeur prédictive de variables sur trois domaines du fonctionnement social de 88 jeunes adultes en début de psychose. Des équations de régression multiple ont révélé qu’un niveau plus élevé de dépression était associé à une vie sociale moins active, qu’un moins bon apprentissage verbal à court terme était associé à un plus bas fonctionnement vocationnel, que le fait d’être de sexe masculin était négativement associé aux habiletés de vie autonome, et qu’un niveau plus élevé de symptômes négatifs prédisait de moins bonnes performances dans les trois sphères du fonctionnement. Finalement, la troisième partie s’intéresse au processus de rétablissement en début de psychose par l’analyse de récits narratifs selon un modèle en cinq stades. Nous avons découvert que l’ensemble de notre échantillon de 47 participants se situaient dans les deux premiers stades de rétablissement lors du premier temps de mesure, et que le fait de se trouver au deuxième stade était associé à de meilleurs scores d’engagement social et de fonctionnement occupationnel, à un meilleur développement narratif, à moins de symptômes négatifs et positifs, et à plus d’années de scolarité. Par ailleurs, l’examen des stades à deux autres temps de mesure a révélé des profils relativement stables sur une période de neuf mois. En somme, les résultats démontrent la nécessité d’évaluer le fonctionnement social de façon plus spécifique et l’importance d’offrir des interventions psychosociales en début de psychose visant notamment le développement des relations et l’intégration scolaire/professionnelle, ou visant à améliorer le faible développement narratif. Cette thèse est, de plus, un premier pas dans l’étude du processus de rétablissement des jeunes atteints de psychose.
Resumo:
OBJECTIF: La mauvaise clairance des lipoprotéines riches en triglycérides par le tissu adipeux blanc (TAB) entraîne l’hypertriglycéridémie, la résistance à l’insuline et la sécrétion hépatique d’apolipoprotéine B (apoB). Ce mémoire tente de déterminer si le LDL entraîne une clairance réduite des lipoprotéines riches en triglycérides par le TAB. MÉTHODES/RÉSULTATS: Suivant l’ingestion d’un repas riche en gras marqué à la trioléine-13C, des femmes obèses postménopausées avec apoB plasmatique élevé (> médiane 0.93 g/L, N=22, 98% sous forme de IDL/LDL) avaient une clairance réduite de triglycérides-13C et acides gras non-estérifiés-13C (AGNE), comparées à celles avec un apoB plus bas. L'aire sous la courbe à 6 heures des triglycérides-13C et AGNE-13C plasmatiques corrélait avec l'apoB, suggérant une moindre captation dans les tissus périphériques chez les femmes avec apoB élevé. Ex vivo, suivant une incubation de 4 heures de biopsies de TAB avec de la trioléine-3H, l’apoB des patientes corrélait négativement avec les lipides-3H intracellulaires. Le traitement des biopsies de TAB des participantes avec leur propre LDL menait à une réduction de l’hydrolyse et de la captation de la trioléine-3H et à l’accumulation d’AGNE-3H dans le médium. In vitro, le LDL inhibait l’activité de la LPL. De plus, les adipocytes 3T3-L1 différenciés en présence de LDL avaient une hydrolyse et une captation réduite des lipoprotéines riches en trioléine-3H. CONCLUSION: Ce mémoire suggère que le LDL diminue la clairance des lipoprotéines riches en triglycérides par le TAB humain, ce qui pourrait expliquer la résistance à l’insuline observée chez des sujets avec apoB élevé.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Ce mémoire présente un patron d’architecture permettant, dans un contexte orientéobjet, l’exploitation d’objets appartenant simultanément à plusieurs hiérarchies fonctionnelles. Ce patron utilise un reasoner basé sur les logiques de description (web sémantique) pour procéder à la classification des objets dans les hiérarchies. La création des objets est simplifiée par l’utilisation d’un ORM (Object Relational Mapper). Ce patron permet l’utilisation effective du raisonnement automatique dans un contexte d’applications d’entreprise. Les concepts requis pour la compréhension du patron et des outils sont présentés. Les conditions d’utilisation du patron sont discutées ainsi que certaines pistes de recherche pour les élargir. Un prototype appliquant le patron dans un cas simple est présenté. Une méthodologie accompagne le patron. Finalement, d’autres utilisations potentielles des logiques de description dans le même contexte sont discutées.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
La vaccination qui est le sujet sur lequel porte cette recherche est une des questions de santé publique les plus importantes; elle fait néanmoins l’objet de nombreuses controverses. Dans le contexte de cette thèse, c’est plutôt l’accès à la vaccination qui est mis en question. La présente recherche vise à analyser une stratégie d’amélioration de la couverture vaccinale à l’aide d’une évaluation de processus extensive en trois étapes faisant suite à une documentation approfondie du contexte. En effet, la recherche analyse les perceptions et les facteurs d’influence de la couverture vaccinale avant l’intervention, les assises conceptuelles et théoriques de cette intervention, l’implantation et la réception de l’intervention et enfin les résultats et les mécanismes mis en œuvre pour les atteindre. Les résultats indiquent que la vaccination s’insère dans l’ensemble des stratégies locales de protection fondées sur des notions endogènes du risque. Ces éléments culturels associés à des facteurs socioéconomiques et aux rapports entre parents et services de santé concourent à expliquer un niveau relativement bas de couverture vaccinale complète de 50% avant l’intervention. L’analyse exploratoire de l’intervention indique que celle-ci intègre une théorie initiale implicite et une philosophie. L’intervention finale était évaluable; cependant, la validation de sa théorie a été compromise par des écarts dans l’implantation. L’approche descriptive montre des taux de réalisation d’activités assez élevés, une atteinte de plus de 95% des cibles et un niveau de réception acceptable, ce qui indique que l’intervention est une stratégie réalisable mais à améliorer. La couverture vaccinale après l’intervention est de 87%; elle est influencée positivement par les niveaux de connaissance élevés des parents et le fait pour les enfants d’être nés dans un centre de santé, et négativement par l’éloignement par rapport au site de vaccination. L’atteinte des résultats suit la procédure principale d’amélioration du niveau de connaissance des parents. Celle-ci est basée sur un mécanisme latent qui est la perception des « opportunités » que fournit la vaccination pour prévenir divers risques sanitaires, sociaux et économiques. Cependant, des approches complémentaires tentent de maximiser les effets de l’intervention en utilisant les pouvoirs conférés aux relais communautaires féminins et la coercition sociale. Cette recherche contribue à éclairer la relation entre l’évaluation du processus et l’analyse de l’évaluabilité, à conceptualiser et opérationnaliser autrement les notions de doses d’intervention administrées et de doses reçues. Sur le plan de la pratique, la recherche contribue à proposer l’amélioration des profils de personnel pour les activités de vaccination et la vulgarisation de la stratégie. Des propositions sont faites pour l’amélioration de l’intervention et l’information des institutions de financement des interventions.
Resumo:
Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.
Resumo:
Jouée par María Elena Velasco depuis la fin des années 1960, la India María met en scène une indienne « authentique » qui, malgré son statut et ses limitations sociales, dénonce le traitement des institutions auxquelles elle est soumise : les systèmes politique, judiciaire, économique et religieux. Néanmoins, lors des premières projections des films sur le grand écran, la critique portait essentiellement sur les aspects superficiels et a réprouvé la façon dont les indiens et le Mexique étaient représentés, car jugée réactionnaire. Au début des années 1990, des chercheurs ont commencé à étudier ses films en proposant une lecture « négociée » : ils s’intéressent à l’effet humoristique produit sur le public par sa performance et ses aventures, en même temps qu’ils reconnaissent l’ambigüité du personnage et des narrations, tout en soulignant les discours ethnique et de classe. À travers l’analyse de Tonta, tonta pero no tanto (Bête, bête, mais pas trop) de Fernando Cortés (1972), Ni de aquí ni de allá (Ni d’ici ni de là-bas) de María Elena Velasco (1988), et Sor Tequila (Sœur Tequila) de Rogelio González (1977), mon mémoire contribue à cette lecture en étudiant trois sujets : le stéréotype cristallisé dans ce personnage, afin de démontrer comment celui-ci permet une critique de la société mexicaine ; les nouveaux enjeux culturels auxquels le système néolibéral affronte les autochtones ; et la transformation du masculin et du public à travers une construction alternative du féminin.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
Les surfaces de subdivision fournissent une méthode alternative prometteuse dans la modélisation géométrique, et ont des avantages sur la représentation classique de trimmed-NURBS, en particulier dans la modélisation de surfaces lisses par morceaux. Dans ce mémoire, nous considérons le problème des opérations géométriques sur les surfaces de subdivision, avec l'exigence stricte de forme topologique correcte. Puisque ce problème peut être mal conditionné, nous proposons une approche pour la gestion de l'incertitude qui existe dans le calcul géométrique. Nous exigeons l'exactitude des informations topologiques lorsque l'on considère la nature de robustesse du problème des opérations géométriques sur les modèles de solides, et il devient clair que le problème peut être mal conditionné en présence de l'incertitude qui est omniprésente dans les données. Nous proposons donc une approche interactive de gestion de l'incertitude des opérations géométriques, dans le cadre d'un calcul basé sur la norme IEEE arithmétique et la modélisation en surfaces de subdivision. Un algorithme pour le problème planar-cut est alors présenté qui a comme but de satisfaire à l'exigence topologique mentionnée ci-dessus.