28 resultados para Iterative probing


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La collaboration est une compétence essentielle que les futurs médecins doivent développer. La détermination des niveaux de compétence est cruciale dans la planification de cet apprentissage. Les échelles descriptives suscitent un intérêt croissant, car elles décrivent en termes qualitatifs les performances attendues. Nous inspirant de la méthodologie mixte de Blais, Laurier, & Rousseau (2009), nous avons construit en cinq étapes une échelle de niveau de compétence de collaboration: 1) formulation d’une liste d’indicateurs situés à quatre niveaux de la formation médicale (préclinique, externat, résidence junior et sénior) par les chercheurs (n= 3) et un groupe d’éducateurs (n=7), leaders pédagogiques possédant une expertise pour la compétence de collaboration; 2) sondage en ligne comprenant quatre questionnaires portant sur les niveaux de 118 indicateurs, auprès d’enseignants cliniciens représentant les différentes spécialités (n=277); 3) analyse, avec le modèle partial credit de Rasch, des réponses aux questionnaires appariés par calibration concurrente; 4) détermination des niveaux des indicateurs par les éducateurs et les chercheurs; et 5) rédaction de l’échelle à partir des indicateurs de chaque niveau. L’analyse itérative des réponses montre une adéquation au modèle de Rasch et répartit les indicateurs sur l’échelle linéaire aux quatre niveaux. Les éducateurs déterminent le niveau des 111 indicateurs retenus en tenant compte des résultats du sondage et de la cohérence avec le curriculum. L’échelle comporte un paragraphe descriptif par niveau, selon trois capacités : 1) participer au fonctionnement d’une équipe; 2) prévenir et gérer les conflits; et 3) planifier, coordonner et dispenser les soins en équipe. Cette échelle rend explicites les comportements collaboratifs attendus à la fin de chaque niveau et est utile à la planification de l’apprentissage et de l’évaluation de cette compétence. La discordance entre les niveaux choisis par les éducateurs et ceux issus de l’analyse des réponses des enseignants cliniciens est principalement due au faible choix de réponse du niveau préclinique par les enseignants et aux problèmes d’adéquation pour les indicateurs décrivant la gestion des conflits. Cette recherche marque une avan- cée dans la compréhension de la compétence de collaboration et démontre l’efficacité de la méthodologie de Blais (2009) dans un contexte de compétence transversale, en sciences de la santé. Cette méthodologie pourrait aider à approfondir les trajectoires de développement d’autres compétences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous proposons de construire un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d’un organe. Nos travaux seront appliqués particulièrement à la construction d'un atlas numérique 3D de la totalité de la cornée humaine incluant la surface antérieure et postérieure à partir des cartes topographiques fournies par le topographe Orbscan II. Nous procédons tout d'abord par normalisation de toute une population de cornées. Dans cette étape, nous nous sommes basés sur l'algorithme de recalage ICP (iterative closest point) pour aligner simultanément les surfaces antérieures et postérieures d'une population de cornée vers les surfaces antérieure et postérieure d'une cornée de référence. En effet, nous avons élaboré une variante de l'algorithme ICP adapté aux images (cartes) de cornées qui tient compte de changement d'échelle pendant le recalage et qui se base sur la recherche par voisinage via la distance euclidienne pour établir la correspondance entre les points. Après, nous avons procédé pour la construction de l'atlas cornéen par le calcul des moyennes des élévations de surfaces antérieures et postérieures recalées et leurs écarts-types associés. Une population de 100 cornées saines a été utilisée pour construire l'atlas cornéen normal. Pour visualiser l’atlas, on a eu recours à des cartes topographiques couleurs similairement à ce qu’offrent déjà les systèmes topographiques actuels. Enfin, des observations ont été réalisées sur l'atlas cornéen reflétant sa précision et permettant de développer une meilleure connaissance de l’anatomie cornéenne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : Les connaissances théoriques et pratiques au sujet de la mise en charge immédiate d’implants non jumelés chez les édentés sont limitées. Objectifs : Cette étude avait pour but de : (1) déterminer le taux de survie implantaire de 2 implants non jumelés supportant une prothèse totale mandibulaire suite à une mise en charge immédiate, (2) évaluer les changements des niveaux osseux et de stabilité implantaire survenus sur ces 2 implants durant une période de 4 mois et les comparer à un implant témoin, et (3) décrire les complications cliniques associées à ce mode de mise en charge. Méthodologie : Chez 18 individus édentés (âge moyen de 62±7 ans), cette étude de phase I avec un design pré/post a évalué les résultats cliniques suivant la mise en charge immédiate (<48 heures) de 2 implants non jumelés par une prothèse totale mandibulaire. À l’aide de radiographies périapicales, de sondages osseux et d’analyses de la fréquence en résonnance, les niveaux osseux péri-implantaires (en mm) et les niveaux de stabilité implantairte (en ISQ) de ces 2 implants insérés dans la région parasymphysaire ont été évalués à la chirurgie (T0) et au suivi de 4 mois (T1). Un implant non submergé et sans mise en charge inséré dans la région de la symphyse mandibulaire a été utilisé comme témoin. Les données ont été analysées avec des modèles mixtes linéaires, la méthode de Tukey ajustée, l’analyse de variance de Friedman et des tests de rang signés de Wilcoxon. Résultats : De T0 à T1, 3 implants mis en charge immédiatement ont échoué chez 2 patients. Le taux de survie implantaire obtenu était donc de 91,7% (33/36) et, par patient, de 88,9% (16/18). Aucun implant témoin n’a échoué. Les changements osseux documentés radiologiquement et par sondage autour des implants mis en charge immédiatement étaient, respectivement, de -0,2 ± 0,3 mm et de -0,5 ± 0,6 mm. Les pertes d’os de support implantaire n’ont pas été démontrées statistiquement différentes entre les implants avec mise en charge immédiate et les témoins. Les niveaux moyens de stabilité implantaire ont augmenté de 5 ISQ indépendamment de la mise en charge. Les niveaux moyens d’ISQ n’ont pas été démontrés statistiquement différents entre les implants avec mise en charge immédiate et les témoins à T0 ou T1. Cinq des 18 patients n’ont expérimenté aucune complication clinique, alors que 9 en ont eu au moins deux. Hormis les échecs implantaires, aucune de ces complications n’a entraîné de changements au protocole. Conclusion : Les résultats à court terme suggèrent que : (1) le taux de survie implantaire suite au protocole immédiat est similaire à ceux rapportés lors d’un protocole de mise en charge conventionnel (2) les changements d’os de support implantaire et de stabilité ne sont pas différents comparativement à ceux d’un implant témoin, (3) un niveau élevé d’expérience clinique et chirurgicale est requis pour effectuer les procédures et pour gérer les complications associées. Ces résultats préliminaires devraient être confirmés dans une étude clinique de phase II.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse contribue à l'état actuel des connaissances sur la compatibilité des nouveaux bâtiments avec les environnements urbains historiques. Elle suit un mode de présentation classique: Introduction, Revue de Littérature, Méthodologie, Résultats, Discussion et Conclusion. Le problème étudié est le manque d'orientation pour intégrer les processus de développement et de sauvegarde dans les contextes établis. La littérature récente révèle que les règles de préservation, aussi appelées normes et lignes directrices, ne peuvent pas garantir une relation compatible entre une intervention et son milieu. La pensée contemporaine dans le domaine de la conservation et de la gestion du patrimoine invite donc l’exploration d'autres moyens pour lier la nouvelle architecture à l'ancienne. Ainsi, le présent projet de recherche explore une approche alternative aux règles de préservation en vue d’atteindre le but de nouveaux bâtiments compatibles et d’améliorer la prise de décision fondée sur les valeurs. Pour produire des résultats spécifiques et convaincants, un cas a été sélectionné. Celui-ci est une ville dans la région du Golfe Arabe : la Ville de Koweït. Le résultat principal est le développement d’une approche, mise en œuvre en posant des questions approfondies sur le lieu, la conception et la construction des nouveaux bâtiments. Les questions suggérées dans la thèse mettent l’accent sur les valeurs patrimoniales et les choix de conception afin de permettre un changement réfléchi au sein des environnements urbains historiques. Elles aident aussi à évaluer les nouvelles propositions de projets au cas par cas. Pour démontrer comment cette approche pourrait être présentée et utilisée par les requérants et les évaluateurs, un modèle théorique est proposé. Ce modèle a ensuite été discuté avec des professionnels locaux et internationaux qui ont identifié ses forces et ses limites. En conclusion, l’ensemble des résultats montre que la mise à disposition de règles et / ou de questions approfondies n’est pas une solution satisfaisante puisqu’il y a d'autres enjeux importants qui devraient être abordés: comment appliquer l'orientation efficacement une fois qu’elle a été créée, comment développer la compétence liée à la prise de décision fondée sur les valeurs et comment insérer la conservation du patrimoine dans la mentalité du gouvernement local et des communautés. Lorsque ces enjeux seront traités, le patrimoine pourra devenir partie intégrante du processus de planification, ce qui est le but ultime. Enfin, cinq axes de recherche sont recommandés pour poursuivre l’exploration des idées introduites dans cette étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet urbain est une occasion de revitalisation locale et globale, à condition qu’il s’inscrive dans une vision écosystémique durable, réfléchie en amont et basée sur l’équilibre complexe et résilient de l’organisation humaine et naturelle. Or, la pratique demande des balises claires et quantifiables laissant peu de place à l’incertitude. Ainsi, comment opérationnaliser l’écologie urbaine, sans effectuer des simplifications réductionnistes ni rester bloqué par l’ampleur de la tâche? En tissant un fils conducteur entre le développement durable, la complexité, l’écologie urbaine et la ville durable, nous mettrons en perspective le processus élargi de projet urbain durable. Puis, sur la base de l’étude de cas de l’Agence d’Écologie Urbaine de Barcelone, nous suggérons que la vision écosystémique d’un contexte urbain peut être utilisée comme un modèle intentionnel de durabilité décliné en indicateurs et opérationnalisé à travers un processus itératif, intégrateur et multidisciplinaire de projet urbain durable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs recherches traitent de la thématique des devoirs et de son importance dans la scolarisation des enfants. En particulier, des études portent sur l’impact de la participation parentale dans l’aide aux devoirs sur le rendement scolaire des enfants. Cependant, les conclusions de ces études sont souvent contradictoires (Pattal, Cooper et Robinson, 2008). Compte tenu de la difficulté à démontrer l’existence d’une relation positive entre la participation parentale à la réalisation des devoirs à la maison et le rendement scolaire, il apparaît important de mieux comprendre le phénomène de la participation parentale. En ce sens, selon certains chercheurs, la variation de l’effet de la participation parentale sur le rendement scolaire serait due principalement à certaines caractéristiques familiales, personnelles et scolaires de l’enfant. Dans ce contexte, et pour une meilleure compréhension des facteurs associés à la participation parentale, notre étude examine la participation parentale à la réalisation des devoirs à la maison en tenant compte des caractéristiques familiales, personnelles et scolaires des enfants du primaire En premier lieu, la situation de la réalisation des devoirs à la maison est traitée et la participation parentale aux devoirs est analysée en fonction de sa fréquence, de sa durée et du climat relationnel entre l’enfant et le parent lors de ces activités à la maison. En second lieu, la participation des parents à la réalisation des devoirs est examinée en relation avec les caractéristiques familiales (scolarité des parents, revenu et structure de la famille), les caractéristiques personnelles de l’enfant (genre et rendement) et les exigences des enseignants à l’égard des devoirs. Cette recherche utilise une base de données constituée lors de deux enquêtes par questionnaire. La première concerne 192 écoles et 457 enseignants, la deuxième est menée dans 51 écoles auprès de 49 enseignants, 848 élèves de la 6e année du primaire et 521 parents. À l’aide d’analyses descriptives et inférentielles, il est possible de rendre compte des conditions de la participation parentale aux devoirs chez les élèves du primaire et d’identifier les variables familiales, personnelles et scolaires associées à la participation parentale à la réalisation des devoirs de leur enfant. Les résultats de cette étude confirment que la participation des parents à la réalisation des devoirs pourrait varier en fonction des caractéristiques familiales de l’enfant au primaire. De plus, ils montrent que le rendement scolaire de l’enfant est un facteur important à considérer pour juger de la participation parentale aux devoirs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche doctorale vise à comprendre et interpréter les conditions d’émergence d’un engagement chez des jeunes en situation de marginalité. Des études ont montré que cette situation peut-être un frein important à l’engagement, en raison d’un manque de ressources personnelles, organisationnelles, ou culturelles. Généralement, on a tendance à insister sur le fait que « les jeunes » ne veulent plus militer. Pourtant, d’importantes actions collectives (mouvements étudiants ou communautaires) ou initiatives citoyennes personnelles (écriture de blogues ou signature de pétitions) viennent contredire cette affirmation. En fait, certaines prises de position, dans la sphère privée notamment, échappent à toute analyse classique et sont prises pour un non-engagement, de l’individualisme voire de l’apathie. À partir d’une approche qualitative, exploratoire et interprétative, le dispositif méthodologique de cette thèse privilégie l’observation participante et les entretiens de groupe afin de recueillir le point de vue des jeunes et d’observer un certain nombre d’actions collectives. C’est par le truchement d’organismes communautaires de jeunesse (OCJ) montréalais qu’une centaine de jeunes ont été rencontrés, de septembre 2010 à décembre 2011. L’analyse itérative du corpus de données s’est inspirée des principes de la théorisation ancrée (grounded theory). Un premier niveau d’analyse descriptive a permis de mettre en exergue les contraintes et les conditions d’émergence de l’engagement ainsi que les performances des jeunes en situation de marginalité. Les différentes formes d’engagement ont ensuite été explorées puis mises en perspective dans différents espaces : « original », « intermédiaire » et « négatif ». L’espace original correspond, dans cette thèse, aux moyens d’actions traditionnels (vote, militantisme politique). Nos résultats montrent que le positionnement des jeunes dans ce cadre est très tranché. En fait, non seulement ces modes d’actions émergent rarement mais, s’ils existent, sont le plus souvent soutenus par des intervenants. Dans un autre espace, les jeunes développent parfois des postures particulières, plus radicales ou, au contraire, des postures de retrait, de non-engagement. Cela se rapporte à ce qu’il conviendrait d’appeler l’espace négatif. Dans ce cas, les contraintes de la situation de marginalité poussent certains jeunes à mettre à distance l’engagement et à se situer aux marges des espaces de participation. L’opposition à toutes formes traditionnelles d’engagement amène des jeunes à envisager des moyens d’action plus radicaux que l’on peut également circonscrire dans cet espace négatif. On trouve au final une tout autre dynamique selon laquelle des jeunes prennent position au sein de ce que l’on a appelé l’espace intermédiaire. Les territoires et les modes d’action sont alors aussi éclectiques que la rue, l’entourage personnel, ou la création artistique underground. Si les rapports à l’engagement des jeunes rencontrés sont complexes, parfois ambivalents, ils révèlent toutefois la recherche d’une alternative, la construction de modes d’action particuliers. Une analyse dynamique des contraintes et des conditions d’émergence de l’engagement des jeunes en difficulté montre que leurs prises de position dépassent la simple dialectique engagement/non-engagement. Ainsi, ce que l’on pourrait appeler un « alter-engagement » se dessine à travers les prises de position de ces jeunes, particulièrement au sein de l’espace intermédiaire. Ce concept est développé pour mettre en évidence les formes d’engagement plus intimes, plus communautaires ou plus artistiques. L’alter-engagement se définit alors comme une forme de prise de position critique, impolitique, en réaction à la fois à l’engagement traditionnel, à une posture de retrait et à une posture plus radicale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au niveau interpersonnel, la psychopathie implique un manque de considération d’autrui pouvant se manifester par la tromperie, la manipulation et l’exploitation. La présente thèse a investigué la relation entre les caractéristiques psychopathiques d'individus non incarcérés et la tendance à coopérer dans un jeu du dilemme du prisonnier itératif. Un total de 85 hommes ont été recrutés via une annonce qui ciblait des traits de personnalité correspondant à des caractéristiques psychopathiques exprimées de façon non péjorative. Plusieurs méthodes ont été employées pour rejoindre les participants : 46 ont participés en personne après avoir répondu à une invitation affichée dans un journal local ainsi que sur des babillards à proximité d'une université; 39 ont complété l'étude sur Internet après avoir été recrutés via un site web de petites annonces. Chaque participant a répondu à un questionnaire incluant l’Échelle Auto-rapportée de Psychopathie (Levenson, Kiehl, & Fitzpatrick, 1995) et l’Échelle Auto-rapportée des Indicateurs de Psychopathie de l’Enfance et de l’Adolescence (Seto, Khattar, Lalumière, & Quinsey, 1997). Ils ont également complété une simulation informatique du dilemme du prisonnier itératif comprenant 90 essais. La simulation informatique utilisée pour évaluer les participants en personne ainsi que la version accessible par Internet ont été conçues et programmées spécifiquement pour la présente thèse. La simulation informatique incluait trois stratégies souvent associées au dilemme du prisonnier itératif : donnant-donnant, donnant-donnant-généreux et gagne/reste-perd/change. Les analyses préliminaires ont montré que les participants vus en personne et ceux rejoints par Internet ne différaient pas en termes de variables sociodémographiques, des caractéristiques psychopathiques, de la désirabilité sociale et des réponses au dilemme du prisonnier. Une régression multiple standard a indiqué que les mesures psychopathiques ne pouvaient pas prédire le nombre total de choix coopératifs dans le jeu. Par contre, une corrélation négative a été trouvée entre les caractéristiques interpersonnelles et affectives de la psychopathie et la coopération dans le premier tiers du jeu. De plus, les participants qui présentaient davantage de caractéristiques psychopathiques interpersonnelles et affectives avaient plus souvent réussi à exploiter l'ordinateur en dénonçant alors que la simulation informatique coopérait. Des analyses multi-niveaux ont exploré la contribution de variables au niveau de la décision et au niveau de l'individu dans la prédiction du choix de coopérer ou de dénoncer lors de chaque essai du jeu; les interactions entre ces variables ont aussi été considérées. Les résultats ont montré que les variables au niveau de la décision influençaient généralement plus fortement les chances de coopérer que les variables au niveau de l'individu. Parmi les mesures de la psychopathie, seulement les caractéristiques interpersonnelles et affectives ont montré une association significative avec les chances de coopérer; les interactions avec le premier choix effectué dans le jeu et le premier tiers du jeu étaient significatives. Ainsi, si un participant avait coopéré au premier essai, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution de ses chances de coopérer par la suite. Aussi, durant les 30 premiers essais du jeu, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution des chances de coopérer. La stratégie adoptée par la simulation informatique n'avait pas d'influence sur le lien entre les caractéristiques psychopathiques et la probabilité de coopérer. Toutefois, le fait de jouer contre donnant-donnant était associé à de plus fortes chances de coopérer d'un essai à l'autre pour l'ensemble des participants. Globalement, les résultats suggèrent que les hommes non incarcérés présentant des caractéristiques psychopathiques ne seraient pas nécessairement portés à choisir systématiquement la non-coopération. En fait, les caractéristiques interpersonnelles et affectives de la psychopathie ont semblé se traduire par une tendance à faire bonne impression au départ, tenter rapidement d'exploiter autrui en dénonçant, puis finir par coopérer. Cette tendance comportementale est discutée, ainsi que la pertinence d'utiliser le dilemme du prisonnier itératif et les analyses multi-niveaux pour étudier le comportement interpersonnel des psychopathes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réflexion est considérée comme un élément significatif de la pédagogie et de la pratique médicales sans qu’il n’existe de consensus sur sa définition ou sur sa modélisation. Comme la réflexion prend concurremment plusieurs sens, elle est difficile à opérationnaliser. Une définition et un modèle standard sont requis afin d’améliorer le développement d’applications pratiques de la réflexion. Dans ce mémoire, nous identifions, explorons et analysons thématiquement les conceptualisations les plus influentes de la réflexion, et développons de nouveaux modèle et définition. La réflexion est définie comme le processus de s’engager (le « soi » (S)) dans des interactions attentives, critiques, exploratoires et itératives (ACEI) avec ses pensées et ses actions (PA), leurs cadres conceptuels sous-jacents (CC), en visant à les changer et en examinant le changement lui-même (VC). Notre modèle conceptuel comprend les cinq composantes internes de la réflexion et les éléments extrinsèques qui l’influencent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les organisations qui s’engagent dans une démarche de responsabilité sociale sont appelées à mieux prendre en considération les impacts environnementaux, sociaux et économiques de leurs activités et à communiquer publiquement les engagements qu’il prennent. Ces engagements sont véhiculés à travers différents médias réalisés par un designer graphique. Comme les notions de responsabilité sociale sont complexes et les engagements uniques à chaque organisation, le designer doit s’assurer de bien comprendre le message à transmettre pour rendre les médias cohérents autant dans leur forme que dans leur contenu. Pour aider le designer à répondre à ce défi, une démarche participative, qui vise la collaboration entre les parties prenantes en amont du processus, a été testée dans le cadre de cette recherche. Elle consistait à observer et à documenter, en contexte de pratique réel, comment une démarche participative pouvait soutenir la communication graphique de la responsabilité sociale d’une organisation. La création de l’identité visuelle et des médias de l’Institut de l’environnement, du développement durable et de l’économie circulaire a été choisi comme cas d’étude. Suivant une méthodologie inspirée de la recherche-action, nous avons pu identifier et valider les freins et les leviers de la démarche avec les participants. Les résultats obtenus soulignent l’apport positif de la démarche au processus de conception. Elle a permis aux parties prenantes de visualiser collectivement les valeurs de RS à communiquer grâce à un partage de connaissances. De plus, le processus itératif et participatif a facilité l’appropriation du projet par l’organisation. Le manque de temps, de ressources humaines et de ressources économiques constituent les principaux freins au maintien de la démarche au-delà de l’étape d’idéation et de rétroaction. L’analyse des données recueillies a permis de formuler des recommandations en vue d’améliorer la démarche pour en favoriser l’usage auprès de la communauté de pratique du design graphique et des organisations qui recourent à ses services pour communiquer leur responsabilité sociale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse concerne l’étude de phase de séparation de deux polymères thermosensibles connus-poly(N-isopropylacylamide) (PNIPAM) et poly(2-isopropyl-2-oxazoline) (PIPOZ). Parmi des études variées sur ces deux polymères, il y a encore deux parties de leurs propriétés thermiques inexplicites à être étudiées. Une partie concerne l’effet de consolvant de PNIPAM dans l’eau et un autre solvant hydromiscible. L’autre est l’effet de propriétés de groupes terminaux de chaînes sur la séparation de phase de PIPOZ. Pour ce faire, nous avons d’abord étudié l’effet de l’architecture de chaînes sur l’effet de cosolvant de PNIPAMs dans le mélange de méthanol/eau en utilisant un PNIPAM en étoile avec 4 branches et un PNIPAM cyclique comme modèles. Avec PNIPAM en étoile, l’adhérence de branches PNIPAM de à un cœur hydrophobique provoque une réduction de Tc (la température du point de turbidité) et une enthalpie plus faible de la transition de phase. En revanche, la Tc de PNIPAM en étoile dépend de la masse molaire de polymère. La coopérativité de déhydratation diminue pour PNIPAM en étoile et PNIPAM cyclique à cause de la limite topologique. Une étude sur l’influence de concentration en polymère sur l’effet de cosolvant de PNIPAM dans le mélange méthanol/eau a montré qu’une séparation de phase liquide-liquide macroscopique (MLLPS) a lieu pour une solution de PNIPAM dans le mélange méthanol/eau avec la fraction molaire de méthanol entre 0.127 et 0.421 et la concentration en PNIPAM est constante à 10 g.L-1. Après deux jours d’équilibration à température ambiante, la suspension turbide de PNIPAM dans le mélange méthanol/eau se sépare en deux phases dont une phase possède beaucoup plus de PNIPAM que l’autre. Un diagramme de phase qui montre la MLLPS pour le mélange PNIPAM/eau/méthanol a été établi à base de données expérimentales. La taille et la morphologie de gouttelettes dans la phase riche en polymère condensée dépendent de la fraction molaire de méthanol. Parce que la présence de méthanol influence la tension de surface des gouttelettes liquides, un équilibre lent de la séparation de phase pour PNIPAM/eau/méthanol système a été accéléré et une séparation de phase liquide-liquide macroscopique apparait. Afin d’étudier l’effet de groupes terminaux sur les propriétés de solution de PIPOZ, deux PIPOZs téléchéliques avec groupe perfluorodécanyle (FPIPOZ) ou groupe octadécyle (C18PIPOZ) comme extrémités de chaîne ont été synthétisés. Les valeurs de Tc des polymères téléchéliques ont beaucoup diminué par rapport à celle de PIPOZ. Des micelles stables se forment dans des solutions aqueuses de polymères téléchéliques. La micellization et la séparation de phase de ces polymères dans l’eau ont été étudiées. La séparation de phase de PIPOZs téléchéliques suit le mécanisme de MLLPS. Des différences en tailles de gouttelettes formées à l’intérieur de solutions de deux polymères ont été observées. Pour étudier profondément les différences dans le comportement d’association entre deux polymères téléchéliques, les intensités des signaux de polymères correspondants et les temps de relaxation T1, T2 ont été mesurés. Des valeurs de T2 de protons correspondants aux IPOZs sont plus hautes.