7 resultados para Bugs

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Problématique : La littérature scientifique ne contient actuellement aucune étude épidémiologique portant sur la relation entre l’exposition à une infestation de punaises de lit (Cimex lectularis) et la santé mentale. L’objectif de cette étude est d’explorer la relation entre le statut d’exposition aux punaises de lit et des mesures de dépression, anxiété et perturbation du sommeil. Méthodes : Cette recherche est une étude transversale basée sur une analyse secondaire des données provenant de N=91 adultes locataires de logements insalubres qui ont répondu à un questionnaire de santé au moment d’interventions médico-environnementales menées par la direction de santé publique de Montréal entre janvier et juin 2010. Le questionnaire de santé inclut le « Questionnaire de santé du patient (QSP-9) », qui est un outil mesurant les symptômes associés à la dépression, l’outil de dépistage d’anxiété généralisée (GAD-7) et les items 1-18 de l’indice de la qualité du sommeil de Pittsburgh (PSQI). L’association entre une exposition autorapportée à une infestation de punaises de lit et le niveau de perturbation du sommeil selon la sous-échelle correspondante du PSQI, les symptômes dépressifs selon le QSP-9 et les symptômes anxieux selon le GAD-7, a été évaluée en utilisant une analyse de régression linéaire multivariée. Des données descriptives relatives aux troubles de sommeil autodéclarés et à des comportements reliés à un isolement social, dus à une exposition aux punaises de lit, sont aussi présentées. Résultats : L’échantillon comprenait 38 hommes et 53 femmes. Parmi les 91 participants, 49 adultes ont signalé une exposition aux punaises de lit et de ce nombre, 53,06% (26/49) ont déclaré des troubles de sommeil et 46,94% (23/49) des comportements d’isolement social, en raison de l’exposition. Les adultes exposés à des punaises de lit ont obtenu des résultats significativement plus élevés sur le QSP-9 (p=0,025), le GAD-7 (p=0,026) et sur la sous-échelle mesurant la perturbation du sommeil (p=0,003) comparativement à ceux qui n’étaient pas exposés. Conclusions : Cette première étude exploratoire met en évidence une association significative entre l’état d’exposition aux punaises de lit et des troubles de sommeil, ainsi que des symptômes anxieux et dépressifs, indiquant que ceux qui sont exposés aux punaises de lit représentent un groupe possiblement à risque de développer des problèmes de santé mentale. Ces résultats viennent en appui aux initiatives des décideurs pour organiser des efforts coordonnés d’éradication au niveau des villes et des provinces.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’environnement façonne la physiologie, la morphologie et le comportement des organismes par l’entremise de processus écologiques et évolutifs complexes et multidimensionnels. Le succès reproducteur des animaux est déterminé par la valeur adaptative d’un phénotype dans un environnement en modification constante selon une échelle temporelle d’une à plusieurs générations. De plus, les phénotypes sont façonnés par l’environnement, ce qui entraine des modifications adaptatives des stratégies de reproduction tout en imposant des contraintes. Dans cette thèse, considérant des punaises et leurs parasitoïdes comme organismes modèles, j’ai investigué comment plusieurs types de plasticité peuvent interagir pour influencer la valeur adaptative, et comment la plasticité des stratégies de reproduction répond à plusieurs composantes des changements environnementaux (qualité de l’hôte, radiation ultraviolette, température, invasion biologique). Premièrement, j’ai comparé la réponse comportementale et de traits d’histoire de vie à la variation de taille corporelle chez le parasitoïde Telenomus podisi Ashmead (Hymenoptera : Platygastridae), démontrant que les normes de réaction des comportements étaient plus souvent positives que celles des traits d’histoires de vie. Ensuite, j’ai démontré que la punaise prédatrice Podisus maculiventris Say (Hemiptera : Pentatomidae) peut contrôler la couleur de ses œufs, et que la pigmentation des œufs protège les embryons du rayonnement ultraviolet; une composante d’une stratégie complexe de ponte qui a évoluée en réponse à une multitude de facteurs environnementaux. Puis, j’ai testé comment le stress thermique affectait la dynamique de la mémoire du parasitoïde Trissolcus basalis (Wollaston) (Hymenoptera : Platygastridae) lors de l’apprentissage de la fiabilité des traces chimiques laissées par son hôte. Ces expériences ont révélé que des températures hautes et basses prévenaient l’oubli, affectant ainsi l’allocation du temps passé par les parasitoïdes dans des agrégats d’hôtes contenant des traces chimiques. J’ai aussi développé un cadre théorique général pour classifier les effets de la température sur l’ensemble des aspects comportementaux des ectothermes, distinguant les contraintes des adaptations. Finalement, j’ai testé l’habileté d’un parasitoïde indigène (T. podisi) à exploiter les œufs d’un nouveau ravageur invasif en agriculture, Halyomorpha halys Stål (Hemiptera : Pentatomidae). Les résultats ont montré que T. podisi attaque les œufs de H. halys, mais qu’il ne peut s’y développer, indiquant que le ravageur invasif s’avère un « piège évolutif » pour ce parasitoïde. Cela pourrait indirectement bénéficier aux espèces indigènes de punaises en agissant comme un puits écologique de ressources (œufs) et de temps pour le parasitoïde. Ces résultats ont des implications importantes sur la réponse des insectes, incluant ceux impliqués dans les programmes de lutte biologique, face aux changements environnementaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin de mieux comprendre l'évolution des étoiles jeunes, nous avons utilisé un code Monte Carlo simulant leur environnement afin d'étudier une nouvelle distribution chez les étoiles Herbig Ae/Be et pour reproduire des cartes d'intensité et de polarisation linéaire obtenues au télescope Canada-France-Hawaii (TCFH) en novembre 2003. Le code datant de la fin des années 80, nous avons dû non seulement le corriger, mais aussi ajouter quelques éléments afin de tenir compte des dernières avancées dans le domaine de la polarisation provenant du milieu circumstellaire. Les étoiles à l'étude étant jeunes (moins de quelques millions d'années), leur voisinage est toujours constitué de grains de poussière mélangés avec du gaz. Selon leur âge, nous retrouvons cette poussière sous différentes structures soit, par exemple, par un disque entouré d'une enveloppe (objets jeunes de classe I) ou par un simple disque (objets de classe II et III). Selon la structure que prend la poussière, les cartes de polarisation et d'intensité qui en résultent vont changer. Nous allons discuter de cette variation des cartes de polarisation selon la distribution de poussière. Suite aux modifications apportées au code, il a fallu s'assurer que celui-ci fonctionne bien. Pour ce faire, nous avons mis au point quelques critères qui nous assurent, s'ils sont satisfaits, que le code Monte Carlo produit de bons résultats. Après avoir validé le code, il est maintenant possible de l'utiliser aux fins d'avancer le domaine de la polarisation. En effet, Dullemond et al.(2001) proposent une nouvelle distribution de grain autour des étoiles Herbig Ae/Be afin de mieux expliquer leur distribution d'énergie spectrale. Par contre, qu'en est-il des cartes de polarisation résultantes? C'est sur cette question que nous nous sommes arrêtés. Par la suite, nous avons essayé de reproduire du mieux possible, tenant compte des limitations du code, les cartes de polarisation obtenues au TCFH. Nous avons étudié en détail les données de R Mon (résultats qui seront présentés sous forme d'article pour fin de publication) et de V376 Cas. De plus, notre étude de V376 Cas nous a permis d'amener des conclusions sur les processus causant les vecteurs parallèles aux disques des étoiles jeunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La révision du code est un procédé essentiel quelque soit la maturité d'un projet; elle cherche à évaluer la contribution apportée par le code soumis par les développeurs. En principe, la révision du code améliore la qualité des changements de code (patches) avant qu'ils ne soient validés dans le repertoire maître du projet. En pratique, l'exécution de ce procédé n'exclu pas la possibilité que certains bugs passent inaperçus. Dans ce document, nous présentons une étude empirique enquétant la révision du code d'un grand projet open source. Nous investissons les relations entre les inspections des reviewers et les facteurs, sur les plans personnel et temporel, qui pourraient affecter la qualité de telles inspections.Premiérement, nous relatons une étude quantitative dans laquelle nous utilisons l'algorithme SSZ pour détecter les modifications et les changements de code favorisant la création de bogues (bug-inducing changes) que nous avons lié avec l'information contenue dans les révisions de code (code review information) extraites du systéme de traçage des erreurs (issue tracking system). Nous avons découvert que les raisons pour lesquelles les réviseurs manquent certains bogues était corrélées autant à leurs caractéristiques personnelles qu'aux propriétés techniques des corrections en cours de revue. Ensuite, nous relatons une étude qualitative invitant les développeurs de chez Mozilla à nous donner leur opinion concernant les attributs favorables à la bonne formulation d'une révision de code. Les résultats de notre sondage suggèrent que les développeurs considèrent les aspects techniques (taille de la correction, nombre de chunks et de modules) autant que les caractéristiques personnelles (l'expérience et review queue) comme des facteurs influant fortement la qualité des revues de code.