7 resultados para design i lärande

em Université de Montréal, Canada


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans ma thèse, je me sers de modèles de recherche solides pour répondre à des questions importantes de politique publique. Mon premier chapitre évalue l’impact causal de l’allégeance partisane (républicain ou démocrate) des gouverneurs américains sur le marché du travail. Dans ce chapitre, je combine les élections des gouverneurs avec les données du March CPS pour les années fiscales 1977 à 2008. En utilisant un modèle de régression par discontinuité, je trouve que les gouverneurs démocrates sont associés à de plus faibles revenus individuels moyens. Je mets en évidence que cela est entrainée par un changement dans la composition de la main-d’oeuvre à la suite d’une augmentation de l’emploi des travailleurs à revenus faibles et moyens. Je trouve que les gouverneurs démocrates provoquent une augmentation de l’emploi des noirs et de leurs heures travaillées. Ces résultats conduisent à une réduction de l’écart salarial entre les travailleurs noir et blanc. Mon deuxième chapitre étudie l’impact causal des fusillades qui se produisent dans les écoles secondaires américaines sur les performances des éléves et les résultats des écoles tels que les effectifs et le nombre d’enseignants recruté, a l’aide d’une stratégie de différence-en-différence. Le chapitre est coécrit avec Dongwoo Kim. Nous constatons que les fusillades dans les écoles réduisent significativement l’effectif des élèves de 9e année, la proportion d’élèves ayant un niveau adéquat en anglais et en mathématiques. Nous examinons aussi l’effet hétérogene des tueries dans les écoles secondaires entre les crimes et les suicides. Nous trouvons que les fusillades de natures criminelles provoquent la diminution du nombre d’inscriptions et de la proportion d’élèves adéquats en anglais et mathématiques. En utilisant des données sur les élèves en Californie, nous confirmons qu’une partie de l’effet sur la performance des élèves provient des étudiants inscrits et ce n’est pas uniquement un effet de composition. Mon troisième chapitre étudie l’impact des cellulaires sur la performance scolaire des élèves. Le chapitre est coécrit avec Richard Murphy. Dans ce chapitre, nous combinons une base de données unique contenant les politiques de téléphonie mobile des écoles obtenues à partir d’une enquète auprès des écoles dans quatre villes en Angleterre avec des données administratives sur la performance scolaire des éleves. Nous étudions ainsi l’impact de l’introduction d’une interdiction de téléphonie mobile sur le rendement des éleves. Nos résultats indiquent qu’il y a une augmentation du rendement des éleves après l’instauration de l’interdiction des cellulaires à l’école, ce qui suggère que les téléphones mobiles sont sources de distraction pour l’apprentissage et l’introduction d’une interdiction à l’école limite ce problème.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les professionnels ont par définition un public bénéficiaire de leurs services : le patient pour le médecin, le psychologue ou l’infirmière ; le client pour l’avocat ; le consommateur pour le gestionnaire d’une entreprise commerciale ; etc. L’usager ou l’habitant du cadre bâti constitue un des destinataires des services professionnels du designer d’intérieur. De quelle manière peut-on apprendre aux étudiants/futurs professionnels du design d’intérieur à se mettre à la place de l’usager/habitant des espaces qu’ils conçoivent ? Le concept de l’empathie, communément décrit comme la capacité de se mettre à la place de l’autre, de le comprendre et de ressentir ses sentiments et ses émotions, est bien adapté pour explorer cette attitude. Cet article est composé de deux parties. La première présente une expérience pédagogique en design d’intérieur où des étudiants apprennent à se représenter les usagers de leur projet d’aménagement en utilisant un outil méthodologique appelé « boussole éthique ». Cette boussole est constituée essentiellement de trois pôles qui renvoient aux trois rapports fondamentaux de l’être humain tels qu’étudiés dans la tradition stoïcienne : rapport à soi-même, à autrui et à la nature. Dans la seconde partie, l’article met en relief plusieurs éléments théoriques qui permettent de comprendre, de consolider et, éventuellement, de faire évoluer les bases conceptuelles qui sous-tendent cette démarche. Il s’agira notamment des théories éthiques et de certaines approches spécifiques au concept de l’empathie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La différentiation entre le « soi » et le « non-soi » est un processus biologique essentiel à la vie. Les peptides endogènes présentés par les complexes majeurs d’histocompatibilité de classe I (CMH I) représentent le fondement du « soi » pour les lymphocytes T CD8+. On donne le nom d’immunopeptidome à l’ensemble des peptides présentés à la surface cellulaire par les molécules du CMH I. Nos connaissances concernant l’origine, la composition et la plasticité de l’immunopeptidome restent très limitées. Dans le cadre de cette thèse, nous avons développé une nouvelle approche par spectrométrie de masse permettant de définir avec précision : la nature et l’abondance relative de l’ensemble des peptides composant l’immunopeptidome. Nous avons trouvé que l’immunopeptidome, et par conséquent la nature du « soi » immun, est surreprésenté en peptides provenant de transcrits fortement abondants en plus de dissimuler une signature tissu-spécifique. Nous avons par la suite démontré que l’immunopeptidome est plastique et modulé par l’activité métabolique de la cellule. Nous avons en effet constaté que les modifications du métabolisme cellulaire par l’inhibition de mTOR (de l’anglais mammalian Target Of Rapamycin) provoquent des changements dynamiques dans la composition de l’immunopeptidome. Nous fournissons également la première preuve dans l’étude des systèmes que l’immunopeptidome communique à la surface cellulaire l’activité de certains réseaux biochimiques ainsi que de multiples événements métaboliques régulés à plusieurs niveaux à l’intérieur de la cellule. Nos découvertes ouvrent de nouveaux horizons dans les domaines de la biologie des systèmes et de l’immunologie. En effet, notre travail de recherche suggère que la composition de l’immunopeptidome est modulée dans l’espace et le temps. Il est par conséquent très important de poursuivre le développement de méthodes quantitatives au niveau des systèmes qui nous permettront de modéliser la plasticité de l’immunopeptidome. La simulation et la prédiction des variations dans l’immunopeptidome en réponse à différents facteurs cellulaires intrinsèques et extrinsèques seraient hautement pertinentes pour la conception de traitements immunothérapeutiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction: La stomatite prothétique est une condition inflammatoire chronique de la muqueuse buccale recouverte par une prothèse. Cette maladie est considérée comme la lésion buccale la plus fréquente chez les porteurs de prothèses amovibles. Des études récentes sur l'étiologie de la stomatite prothétique suggèrent que des traitements basés sur la réduction de l'inflammation seraient efficaces dans le traitement de cette maladie. Objectifs: Évaluer l'efficacité du brossage du palais dans le traitement de la stomatite prothétique. Méthodes: Quarante-huit participants (âge moyen : 66,0 ± 11,2 ans) avec un diagnostic de stomatite prothétique, ont été sélectionnés à partir d’un examen préalable de 143 individus, afin de participer à cet essai clinique de phase I à deux centres, réalisé selon un devis de type pré-test/post-test à un seul groupe. L'intervention a consisté en un brossage du palais avec une brosse manuelle après chaque repas et avant le coucher. Des examens cliniques et microbiologiques ont été effectués avant le traitement, et à 1 mois et 3 mois de suivi. Des données supplémentaires ont été obtenues par l'utilisation d'un questionnaire validé. Les résultats primaires et secondaires étaient, respectivement, la rémission de stomatite prothétique et la diminution du nombre de colonies de Candida. Des tests statistiques descriptifs et non paramétriques ont été menés pour analyser les données. Résultats: À 3 mois de suivi, 10,4 % des participants ont été guéris et 70,8 % ont eu une amélioration clinique de la stomatite prothétique grâce au brossage du palais. Une réduction statistiquement significative de la surface et de l’intensité de l’inflammation après 3 mois de brossage du palais a été démontrée (p < 0,0001). L’ampleur de l’effet a varié d’un effet modéré à important (0,34 à 0,54) selon la classification utilisée pour le diagnostique de la stomatite prothétique. De plus, le nombre de colonies de Candida, recueillies par sonication des prothèses et par échantillonnage du palais, a diminué de manière statistiquement significative après 3 mois de brossage (p ≤ 0,05). Conclusion: Les résultats de cette étude suggèrent que le brossage du palais est efficace comme traitement de la stomatite prothétique.