427 resultados para Donner le temps


Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’apprentissage par projet est une méthode pédagogique importante dans le réseau des cégeps, particulièrement depuis la Réforme scolaire collégiale de 1993 (Piché & Lapostolle, 2009). Toutefois, la quantité d’études sur les conditions d’efficacité de cette méthode pédagogique, particulièrement les études longitudinales, est limitée dans le milieu collégial. La présente étude analyse lele de plusieurs variables issues de la recherche en psychologie organisationnelle. D’abord, on considère lele de deux variables de personnalité affectées par la complexité d’une tâche : l’orientation envers les buts (Dweck & Leggett, 1988) et le style de gestion des conflits (Rubin, Pruitt, & Kim, 1994). Deux variables processuelles sont aussi étudiées : les types de conflits (Jehn 1995, 1997) et la proactivité (Griffin, Neale, & Parker, 2007). À l’aide d’analyses de médiation (Preacher & Hayes, 2008), les résultats démontrent que les orientations envers les buts et les styles de gestion des conflits utiles aux tâches complexes le sont également dans un contexte de projet au collégial, favorisant la proactivité des étudiants. Pour les types de conflits, un examen de leur évolution dans le temps permet de conclure à un effet généralement négatif en raison de la forte association entre eux. Une explication possible est la présence de mésattribution (Simons & Peterson, 2000), c’est-à-dire que les conflits reliés à la tâche sont faussement interprétés comme des conflits interpersonnels.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Une nouvelle méthode d'extraction en phase solide (SPE) couplée à une technique d'analyse ultrarapide a été développée pour la détermination simultanée de neuf contaminants émergents (l'atrazine, le déséthylatrazine, le 17(béta)-estradiol, l'éthynylestradiol, la noréthindrone, la caféine, la carbamazépine, le diclofénac et le sulfaméthoxazole) provenant de différentes classes thérapeutiques et présents dans les eaux usées. La pré-concentration et la purification des échantillons a été réalisée avec une cartouche SPE en mode mixte (Strata ABW) ayant à la fois des propriétés échangeuses de cations et d'anions suivie d'une analyse par une désorption thermique par diode laser/ionisation chimique à pression atmosphérique couplée à la spectrométrie de masse en tandem (LDTD-APCI-MS/MS). La LDTD est une nouvelle méthode d'introduction d'échantillon qui réduit le temps total d'analyse à moins de 15 secondes par rapport à plusieurs minutes avec la chromatographie liquide couplée à la spectrométrie de masse en tandem traditionnelle (LC-MS/MS). Plusieurs paramètres SPE ont été évalués dans le but d'optimiser l'efficacité de récupération lors de l'extraction des analytes provenant des eaux usées, tels que la nature de la phase stationnaire, le débit de chargement, le pH d'extraction, le volume et la composition de la solution de lavage et le volume de l'échantillon initial. Cette nouvelle méthode a été appliquée avec succès à de vrais échantillons d'eaux usées provenant d'un réservoir de décantation primaire. Le recouvrement des composés ciblés provenant des eaux usées a été de 78 à 106%, la limite de détection a été de 30 à 122 ng L-1, alors que la limite de quantification a été de 88 à 370 ng L-1. Les courbes d'étalonnage dans les matrices d'eaux usées ont montré une bonne linéarité (R2 > 0,991) pour les analytes cibles ainsi qu’une précision avec un coefficient de variance inférieure à 15%.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La mortalité aux jeunes âges devenant de plus en plus faible, l’augmentation de l’espérance de vie est de plus en plus dépendante des progrès en mortalité aux âges avancés. L’espérance de vie à 65 ans et à 85 ans n’a cependant pas connu un rythme de progression continu depuis les trois dernières décennies. Ces changements dans l’évolution de l’espérance de vie proviennent de changements dans les tendances de certaines causes de décès et de leurs interactions. Ce mémoire analyse la contribution des causes de décès aux changements qu’a connus l’espérance de vie, mais aussi l’évolution spécifique des taux de mortalité liés aux principales causes de décès au Canada entre 1979 et 2007. Finalement, une analyse de l’implication de ces changements dans un contexte de transition épidémiologique sera réalisée, par un questionnement sur le fait que l’on assiste ou non au passage de certaines pathologies dominantes à d’autres. La réponse à ce questionnement se trouve dans l’étude de l’évolution par âge et dans le temps des causes de décès. Les résultats montrent que les progrès en espérance de vie à 65 ans et à 85 ans sont encore majoritairement dus à la diminution de la mortalité par maladies cardiovasculaires. Toutefois, ces dernières causes de décès ne sont pas les seules à contribuer aux progrès en espérance de vie, puisque les taux de mortalité dus aux dix principales causes de décès au Canada ont connu une diminution, bien qu’elles n’aient pas toutes évolué de la même manière depuis 1979. On ne semble ainsi pas passer d’un type de pathologies dominantes à un autre, mais à une diminution générale de la mortalité par maladies chroniques et à une diversification plus importante des causes de décès à des âges de plus en plus avancés, notamment par la diminution des «grandes» causes de décès.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Depuis la mise en place de la réforme, il y a plus de dix ans, les directions d’établissement sont tenues de trouver des solutions alternatives au redoublement, afin d’aider les élèves en difficulté à rattraper leur retard. C’est afin de répondre à cet impératif que la classe de prolongation de cycle a été mise en place dans les écoles secondaires. Des élèves en fin de 1er cycle, jugés incapables de poursuivre au cycle supérieur, y sont regroupés et pendant une année, ils bénéficient de mesures de soutien afin d’atteindre le niveau de compétence attendu (plus précisément en français en en mathématiques) pour pouvoir vivre un passage réussi au second cycle. Peu de résultats de recherches sont toutefois disponibles quant à l’efficacité de cette modalité. La présente étude vise donc à estimer l’incidence de deux modèles de prolongation de cycle (co-enseignement et avec enseignant unique), sur la motivation et l’adaptation psychosociale des élèves. Ainsi, les élèves qui expérimentent un modèle de co-enseignement demeurent en groupe fermé et sont accompagnés par trois enseignants titulaires qui se partagent la responsabilité de la quasi-totalité des composantes du programme de formation. Les élèves qui expérimentent un modèle avec enseignant unique demeurent eux aussi en groupe fermé, mais sont encadrés par une seule enseignante titulaire qui assume la responsabilité des enseignements en français et en mathématiques. Les autres matières sont enseignées par des spécialistes. Cent trente-quatre élèves au total, fréquentant trois écoles secondaires francophones montréalaises situées en milieu défavorisé, ont donc formé les groupes expérimentaux et témoins. En début et en fin d’année, les participants ont répondu à un questionnaire d’enquête mesurant l’évolution de leur motivation générale pour les apprentissages, de leur motivation spécifique aux disciplines, de leur adaptation psychosociale, de même que certaines facettes de leurs relations avec leurs pairs, leurs enseignants et leurs parents. Les résultats d’analyses de variance multivariées à mesures répétées (MANOVA) et des tests univariés subséquents permettent d’observer, chez les élèves qui ont expérimenté la prolongation de cycle en co-enseignement, une augmentation de leur sentiment de compétence général vis-à-vis l’école. De plus, leurs buts de performance-évitement et leur anxiété sociale ont diminué. Chez les élèves qui ont expérimenté la prolongation de cycle avec enseignant unique, ce même sentiment de compétence vis-à-vis l’école et celui spécifique au français ont augmenté. En revanche, ces derniers s’expriment plus négativement que leurs homologues en ce qui concerne leur intérêt général envers l’école, leur sentiment d’appartenance à leur école et leurs relations avec leurs pairs. Ces résultats indiquent donc que cette mesure a un effet mitigé sur la motivation et l’adaptation psychosociale des élèves. De plus, les quelques bénéfices perçus peuvent être la conséquence du fait de se retrouver dans un environnement scolaire moins compétitif. Cela dit, il apparaît important de préciser que les enseignants qui ont testé le modèle de co-enseignement en étaient à une première expérience. Leurs pratiques sont susceptibles de se bonifier, ce qui laisse croire que des résultats plus disparates pourraient éventuellement être observés entre ces deux modèles de prolongation. Par ailleurs, la pérennité des gains observés est inconnue. En conséquence, il conviendrait de poursuivre cette étude pour être en mesure de déterminer si ceux-ci sont durables dans le temps et afin de constater la pleine mesure de l’efficacité du modèle de prolongation de co-enseignement.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Réalisé en cotutelle avec le laboratoire M2S de Rennes 2

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les données sont analysées par le logiciel conçu par François Courtemanche et Féthi Guerdelli. L'expérimentation des jeux a eu lieu au Laboratoire de recherche en communication multimédia de l'Université de Montréal.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans ce mémoire, les armes à feu impliquées dans la commission de crimes sont étudiées à partir de leur mobilité spatio-temporelle. Afin d’opérationnaliser cette mobilité, deux mesures spécifiques ont été créées, soit le « temps-au-recouvrement » et la « distance-au-recouvrement ». Ces mesures permettent d’analyser les répercussions des armes à feu en circulation illégale sur la formation du marché illégal dans le territoire québécois. Des analyses descriptives ont d’abord été effectuées dans cette étude à partir de trois segments de la banque de données québécoise des armes à feu recouvrées : la banque complète, les armes à feu impliquées dans la commission de crimes et les armes volées. Le sous-groupe de 501 d’armes à feu volées est le seul qui a été soumis à des analyses de régressions multiples sur la mobilité puisque ces armes sont les seules permettant d’avoir plus d’informations sur leur mouvement antérieur au recouvrement par les autorités policières. Les résultats montrent qu’il y a une mobilité spatio-temporelle plus importante chez les armes de poing, celles impliquées dans les crimes de marché, les armes non-enregistrées ainsi que celles sans restriction. Afin de mieux comprendre la dynamique des armes volées, le statut de l’enregistrement s’avère la variable la plus importante puisqu’elle permet de déterminer à quel point ces armes vont être enracinées dans le marché illégal au Québec. Effectivement, les armes volées non-enregistrées sont plus susceptibles de converger vers les marchés criminels, ce qui augmente considérablement leur « durée » de vie et leur mobilité dans la province.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’approche cognitive du trouble obsessionnel-compulsif (TOC) propose un lien bidirectionnel entre les émotions et les cognitions. Cependant, même si des études montrent une association entre les émotions et le TOC, aucune étude ne s’est attardée à la relation entre les émotions, les cognitions et les comportements au cours d’une thérapie cognitive. La présente étude a pour but d’examiner la relation entre les processus cognitif, béhavioral et émotionnel au cours d’une thérapie basée sur les inférences (TBI) chez des personnes souffrant du TOC. Plus précisément, nous avons observé comment les émotions et les symptômes du TOC s’influencent et comment ils s’influencent à travers le temps. Les patients ont rempli un journal de bord tout au long du processus thérapeutique, notant (de 0 à 100) des émotions clés, ainsi que les croyances et les comportements ciblés durant la thérapie. Des analyses à mesures répétées ont été utilisées afin de maximiser le potentiel des données longitudinales. Les résultats montrent que l’anxiété, la tristesse et la joie ont des trajectoires similaires aux croyances et aux comportements au cours de la thérapie. Les forces et limites de l’étude sont discutées. Les implications des résultats pour le traitement des émotions et des pensées à différents moments de la thérapie sont aussi discutées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Contexte : Environ 20 % des femmes enceintes présentent un risque élevé de dépression prénatale. Les femmes immigrantes présentent des symptômes dépressifs élevés pendant la grossesse, le début de la période suivant l'accouchement et comme mères de jeunes enfants. Tandis que les disparités ethniques dans la symptomatologie dépressive pendant la grossesse ont été décrites, la combinaison de la longueur du séjour dans le pays d’accueil et la région d'origine sont rarement évalués dans des études qui portent sur la santé des immigrants au Canada. En outre, les études auprès des femmes immigrantes enceintes ont souvent un échantillon de taille qui ne suffit pas pour démêler les effets de la région d'origine et de la durée du séjour sur la santé mentale. De plus, au Canada, presque une femme sur cinq est un immigrant, mais leur santé mentale au cours de la grossesse, les niveaux d'exposition aux facteurs de risque reconnus pour la dépression prénatale et comment leur exposition et la vulnérabilité face à ces risques se comparent à celles des femmes enceintes nés au Canada, sont peu connus. De plus, le processus d'immigration peut être accompagné de nombreux défis qui augmentent le risque de violence subie par la femme. Néanmoins, les preuves existantes dans la littérature sont contradictoires, surtout en ce qui concerne le type de violence évaluée, les minorités ethniques qui sont considérées et l'inclusion de l'état de santé mentale. Objectifs : Tout d'abord, nous avons comparé la santé mentale de femmes immigrantes et les femmes nées au Canada au cours de la grossesse en tenant compte de la durée du séjour et de la région d'origine, et nous avons évalué lele des facteurs socio-économiques et du soutien social dans la symptomatologie dépressive prénatale. Deuxièmement, nous avons examiné la répartition des facteurs de risque contextuels de la symptomatologie dépressive prénatale selon le statut d'immigrant et la durée du séjour au Canada. Nous avons ensuite évalué l'association entre ces facteurs de risque et les symptômes de dépression prénataux et ensuite comparé la vulnérabilité des femmes nés au Canada et les femmes immigrantes à ces facteurs de risque en ce qui concerne les symptômes de la dépression prénatale. En troisième lieu, nous avons décrit la prévalence de la violence pendant la grossesse et examiné l'association entre l'expérience de la violence depuis le début de la grossesse et la prévalence des symptômes de la dépression prénatale, en tenant compte du statut d’immigrant. Méthodes : Les données proviennent de l'étude de Montréal sur les différences socio-économiques en prématurité. Les femmes ont été recrutées lors des examens de routine d'échographie (16 à 20 semaines), lors de la prise du sang (8-12 semaines), ou dans les centres de soins prénatals. L’échelle de dépistage Center for Epidemiologic Studies (CES-D) a été utilisée pour évaluer la symptomatologie dépressive à 24-26 semaines de grossesse chez 1495 immigrantes et 3834 femmes nées au Canada. Les niveaux d'exposition à certains facteurs de risque ont été évalués selon le statut d'immigrant et la durée de séjour à l'aide des tests Chi-2 ou test- t. L'échelle de dépistage Abuse Assessment screen (AAS) a été utilisée pour déterminer la fréquence et la gravité de la violence depuis le début de la grossesse. La relation avec l'agresseur a été également considérée. Toutes les mesures d'association ont été évaluées à l'aide de régressions logistiques multiples. Des termes d'interaction multiplicative furent construits entre chacun des facteurs de risque et statut d'immigrant pour révéler la vulnérabilité différentielle entre les femmes nés au Canada et immigrantes. Résultats : La prévalence des symptômes de dépression prénatales (CES-D > = 16 points) était plus élevée chez les immigrantes (32 % [29,6-34,4]) que chez les femmes nées au Canada (22,8 % (IC 95 % [21.4-24.1]). Des femmes immigrantes présentaient une symptomatologie dépressive élevée indépendamment du temps depuis l'immigration. La région d'origine est un fort indice de la symptomatologie dépressive : les prévalences les plus élevées ont été observées chez les femmes de la région des Caraïbes (45 %), de l’Asie du Sud (43 %), du Maghreb (42 %), de l'Afrique subsaharienne (39 %) et de l’Amérique latine (33 %) comparativement aux femmes nées au Canada (22 %) et celle de l'Asie de l’Est où la prévalence était la plus faible (17 %). La susceptibilité de présenter une dépression prénatale chez les femmes immigrantes était attenuée après l’ajustement pour le manque de soutien social et de l'argent pour les besoins de base. En ce qui concerne la durée du séjour au Canada, les symptômes dépressifs ont augmenté avec le temps chez les femmes d’origines européenne et asiatique du sud-est, diminué chez les femmes venant du Maghreb, de l’Afrique subsaharienne, du Moyen-Orient, et de l’Asie de l'est, et ont varié avec le temps chez les femmes d’origine latine et des Caraïbes. Les femmes immigrantes étaient beaucoup plus exposées que celles nées au Canada à des facteurs de risques contextuels indésirables comme la mésentente conjugale, le manque de soutien social, la pauvreté et l'encombrement au domicile. Au même niveau d'exposition aux facteurs de risque, les femmes nées au Canada ont présenté une plus grande vulnérabilité à des symptômes de la dépression prénatale en l'absence de soutien social (POR = 4,14 IC95 % [2,69 ; 6.37]) tandis que les femmes immigrées ont présentées une plus grande vulnérabilité à des symptômes de la dépression prénatale en absence d'argent pour les besoins de base (POR = 2,98 IC95 % [2.06 ; 4,32]). En ce qui concerne la violence, les menaces constituent le type de la violence le plus souvent rapporté avec 63 % qui ont lieu plus d'une fois. Les femmes immigrantes de long terme ont rapporté la prévalence la plus élevée de tous les types de violence (7,7 %). La violence par le partenaire intime a été la plus fréquemment rapportées (15 %) chez les femmes enceintes les plus pauvres. Des fortes associations ont été obtenues entre la fréquence de la violence (plus d'un épisode) et la symptomatologie dépressive (POR = 5,21 [3,73 ; 7,23] ; ainsi qu’entre la violence par le partenaire intime et la symptomatologie dépressive (POR = 5, 81 [4,19 ; 8,08). Le statut d'immigrant n'a pas modifié les associations entre la violence et la symptomatologie dépressive. Conclusion: Les fréquences élevées des symptômes dépressifs observées mettent en évidence la nécessité d'évaluer l'efficacité des interventions préventives contre la dépression prénatale. La dépression chez les femmes enceintes appartenant à des groupes minoritaires mérite plus d'attention, indépendamment de leur durée de séjour au Canada. Les inégalités d’exposition aux facteurs de risque existent entre les femmes enceintes nées au Canada et immigrantes. Des interventions favorisant la réduction de la pauvreté et l'intégration sociale pourraient réduire le risque de la dépression prénatale. La violence contre les femmes enceintes n'est pas rare au Canada et elle est associée à des symptômes de la dépression prénatale. Ces résultats appuient le développement futur du dépistage périnatal de la violence, de son suivi et d'un système d'aiguillage culturellement ajusté.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce projet a été réalisé au Québec et en France et vise à évaluer empiriquement la complémentarité des services de soins en lien avec les besoins exprimés par les personnes ayant un TCC, leurs proches et le point de vue des professionnels de la santé. Il vise spécifiquement à identifier   les   éléments   de   convergence   et   de   divergence   entre   l’offre   de   services   québécoise   et   française   et   la   perception   des   acteurs   de   ces   réseaux   quant   à   l’adéquation   entre   les   besoins   des   personnes ayant un TCC et de leurs proches et les services offerts. Pour ce faire, des personnes ayant un TCC ainsi que des proches ont été invités à identifier leurs besoins au moment du traumatisme crânien et tout au long du processus de réadaptation et d’intégration   sociale.     Les   intervenants   devaient   partager   leur   perception   des   besoins ressentis par les personnes et les proches. Dans cette étude, les résultats obtenus en France et au Québec seront comparés afin d’identifier  les  éléments  de  convergence  et  de  divergence  entre  l’offre  de  services  québécoise  et   française   et   la   perception   des   acteurs   de   ces   réseaux   quant   à   l’adéquation   entre   les   besoins   des   usagers et les services offerts.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.