990 resultados para expériences
Resumo:
Ce mémoire de maîtrise s’intéresse au sujet de la citoyenneté telle que vue par treize personnalités musulmanes influentes du Québec. Ces personnes sont largement impliquées dans différentes sphères des affaires publiques, telles que religieuse, politique, communautaire, académique et économique. L’objectif de l’étude qualitative de ces entrevues de type ouvert est de comprendre comment ces personnes perçoivent leur citoyenneté et les expériences personnelles sociales qui influencent leurs visions respectives à partir de la sémantique de leur articulation de la relation de la foi musulmane avec la notion de citoyenneté. Le contenu de ces entrevues a été soumis à une analyse de discours et nous en avons ressorti « une théorie de la citoyenneté chez les musulmans du Québec » basée sur des définitions différentes de la citoyenneté : une citoyenneté qui est « à part entière » en contradiction avec une autre de « seconde zone » ou de « seconde classe », toutes les deux définies par un ensemble de droits et de devoirs. Cette logique de définition de la citoyenneté se justifie par un cumul d’identités durant la trajectoire personnelle de chacun en faisant intervenir ses priorités et ses préoccupations courantes tout en trouvant sa source d’inspiration dans l’islam. La nationalité canadienne/québécoise se complète par l’islam comme mode de vie au sein de cette définition de la citoyenneté, selon cette même logique, à l’intérieur d’une idéologie nationaliste canadienne.
Resumo:
L'ère numérique dans laquelle nous sommes entrés apporte une quantité importante de nouveaux défis à relever dans une multitude de domaines. Le traitement automatique de l'abondante information à notre disposition est l'un de ces défis, et nous allons ici nous pencher sur des méthodes et techniques adaptées au filtrage et à la recommandation à l'utilisateur d'articles adaptés à ses goûts, dans le contexte particulier et sans précédent notable du jeu vidéo multi-joueurs en ligne. Notre objectif est de prédire l'appréciation des niveaux par les joueurs. Au moyen d'algorithmes d'apprentissage machine modernes tels que les réseaux de neurones profonds avec pré-entrainement non-supervisé, que nous décrivons après une introduction aux concepts nécessaires à leur bonne compréhension, nous proposons deux architectures aux caractéristiques différentes bien que basées sur ce même concept d'apprentissage profond. La première est un réseau de neurones multi-couches pour lequel nous tentons d'expliquer les performances variables que nous rapportons sur les expériences menées pour diverses variations de profondeur, d'heuristique d'entraînement, et des méthodes de pré-entraînement non-supervisé simple, débruitant et contractant. Pour la seconde architecture, nous nous inspirons des modèles à énergie et proposons de même une explication des résultats obtenus, variables eux aussi. Enfin, nous décrivons une première tentative fructueuse d'amélioration de cette seconde architecture au moyen d'un fine-tuning supervisé succédant le pré-entrainement, puis une seconde tentative où ce fine-tuning est fait au moyen d'un critère d'entraînement semi-supervisé multi-tâches. Nos expériences montrent des performances prometteuses, notament avec l'architecture inspirée des modèles à énergie, justifiant du moins l'utilisation d'algorithmes d'apprentissage profonds pour résoudre le problème de la recommandation.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Bien que ce soit un procédé industriel répandu, les films de copolymères à blocs préparés par trempage (« dip-coating ») sont moins étudiés que ceux obtenus par tournette (« spin-coating »). Pourtant, il est possible grâce à cette technique de contrôler précisément les caractéristiques de ces films. Au-delà de la méthode de fabrication, la capacité de modifier la morphologie des films trempés à l’aide d’autres facteurs externes est un enjeu primordial pour leur utilisation dans les nanotechnologies. Nous avons choisi, ici, d’étudier l’influence d’une petite molécule sur la morphologie de films supramoléculaires réalisés par « dip-coating » à partir de solutions de poly(styrène-b-4-vinyl pyridine) (PS-P4VP) dans le tétrahydrofurane (THF). En présence de 1-naphtol (NOH) et d’1-acide napthoïque (NCOOH), qui se complexent par pont hydrogène au bloc P4VP, ces films donnent, respectivement, une morphologie en nodules (sphères) et en stries (cylindres horizontaux). Des études par spectroscopie infrarouge ont permis de mesurer la quantité de petite molécule dans ces films minces, qui varie avec la vitesse de retrait mais qui s’avère être identique pour les deux petites molécules, à une vitesse de retrait donnée. Cependant, des études thermiques ont montré qu’une faible fraction de petite molécule est dispersée dans le PS (davantage de NOH que de NCOOH à cause de la plus faible liaison hydrogène du premier). La vitesse de retrait est un paramètre clé permettant de contrôler à la fois l’épaisseur et la composition du film supramoléculaire. L’évolution de l’épaisseur peut être modélisée par deux régimes récemment découverts. Aux faibles vitesses, l’épaisseur décroît (régime de capillarité), atteint un minimum, puis augmente aux vitesses plus élevées (régime de drainage). La quantité de petite molécule augmente aux faibles vitesses pour atteindre un plateau correspondant à la composition de la solution aux vitesses les plus élevées. Des changements de morphologie, à la fois liés à l’épaisseur et à la quantité de petite molécule, sont alors observés lorsque la vitesse de retrait est modifiée. Le choix du solvant est aussi primordial dans le procédé de « dip-coating » et a été étudié en utilisant le chloroforme, qui est un bon solvant pour les deux blocs. Il s’avère qu’à la fois la composition ainsi que la morphologie des films de PS-P4VP complexés sont différentes par rapport aux expériences réalisées dans le THF. Premièrement, la quantité de petite molécule reste constante avec la vitesse de retrait mais les films sont plus riches en NCOOH qu’en NOH. Deuxièmement, la morphologie des films contenant du NOH présente des stries ainsi que des lamelles à plat, tandis que seules ces dernières sont observables pour le NCOOH. Ce comportement est essentiellement dû à la quantité différente de petite molécule modulée par leur force de complexation différente avec le P4VP dans le chloroforme. Enfin, ces films ont été utilisés pour l’adsorption contrôlée de nanoparticules d’or afin de guider leur organisation sur des surfaces recouvertes de PS-P4VP. Avant de servir comme gabarits, un recuit en vapeurs de solvant permet soit d’améliorer l’ordre à longue distance des nodules de P4VP, soit de modifier la morphologie des films selon le solvant utilisé (THF ou chloroforme). Ils peuvent être ensuite exposés à une solution de nanoparticules d’or de 15 nm de diamètre qui permet leur adsorption sélective sur les nodules (ou stries) de P4VP.
Resumo:
En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.
Resumo:
Le travail présenté dans cette thèse porte sur le rôle du cortex prémoteur dorsal (PMd) au sujet de la prise de décision (sélection d’une action parmis nombreux choix) et l'orientation visuelle des mouvements du bras. L’ouvrage décrit des expériences électrophysiologiques chez le singe éveillé (Macaca mulatta) permettant d’adresser une fraction importante des prédictions proposées par l'hypothèse des affordances concurrentes (Cisek, 2006; Cisek, 2007a). Cette hypothèse suggère que le choix de toute action est l’issue d'une concurrence entre les représentations internes des exigences et des atouts de chacune des options présentées (affordances; Gibson, 1979). Un intérêt particulier est donné au traitement de l'information spatiale et la valeur des options (expected value, EV) dans la prise de décisions. La première étude (article 1) explore la façon dont PMd reflète ces deux paramètres dans la période délai ainsi que de leur intéraction. La deuxième étude (article 2) explore le mécanisme de décision de façon plus détaillée et étend les résultats au cortex prémoteur ventral (PMv). Cette étude porte également sur la représentation spatiale et l’EV dans une perspective d'apprentissage. Dans un environnement nouveau les paramètres spatiaux des actions semblent être présents en tout temps dans PMd, malgré que la représentation de l’EV apparaît uniquement lorsque les animaux commencent à prendre des décisions éclairées au sujet de la valeur des options disponibles. La troisième étude (article 3) explore la façon dont PMd est impliqué aux “changements d'esprit“ dans un procès de décision. Cette étude décrit comment la sélection d’une action est mise à jour à la suite d'une instruction de mouvement (GO signal). I II Les résultats principaux des études sont reproduits par un modèle computationnel (Cisek, 2006) suggérant que la prise de décision entre plusieurs actions alternatives peux se faire par voie d’un mécanisme de concurrence (biased competition) qui aurait lieu dans la même région qui spécifie les actions.
Resumo:
Introduction: Les professionnels de la réadaptation de l’accident vasculaire cérébral (AVC) ont la responsabilité d’offrir des services de qualité ancrés dans les données probantes. Cette responsabilité relève du rôle d’érudit selon le cadre de compétences CanMEDS. Quelle place occupe par ce rôle en clinique? Objectifs : 1) Documenter les perceptions, expériences et vécus en lien avec le rôle d’érudit chez les professionnels de la réadaptation de l’AVC. 2) Identifier les facteurs perçus comme facilitant ou entravant ce rôle clinique. Méthodologie : Étude qualitative exploratoire d’orientation phénoménologique par entrevue individuelle de professionnels travaillant en réadaptation de l’AVC depuis au moins deux ans. Codification des verbatim avec le logiciel QDA-Miner. Résultats : Les participants (âge moyen 40,7 ans ± 11,2) sont majoritairement des femmes (9/11) et leur expérience de travail en AVC varie de 3 à 23 ans. Les principaux thèmes identifiés sont: 1) Les savoirs tacites sont perçus comme synonyme du rôle d’érudit; 2) L’expérience de travail et l’intuition clinique amènent confiance et confort dans les pratiques; 3) L’insatisfaction quant au manque de partage des connaissances; 4) L’importance de la diversification dans les tâches cliniques et 5) La pratique réflexive est peu développée. Les quatre facteurs influençant le rôle d’érudit sont: la motivation; l’incident critique, les stagiaires et le manque de temps. Conclusion : Le rôle d’érudit apparaît peu valorisé par les participants. Il existe un écart entre le rôle d’érudit tel que décrit dans les cadres de compétences et la façon dont il est actualisé en pratique clinique.
Resumo:
Nous avons examiné la nature du lien, additif ou interactif, entre les capacités attentionnelles et les habiletés de motricité fine et leur influence sur les habiletés d’écriture ultérieures. Les mesures de l’échantillon (n=439) de l’étude montréalaise sur le préscolaire en milieu défavorisé (MLEPS) à la maternelle incluent des questionnaires aux enseignants, des évaluations sur la connaissance des nombres et du vocabulaire réceptif des élèves et caractéristiques familiales rapportées par les parents. En 3ème année, les mesures proviennent de questionnaires aux enseignants. Selon les résultats des régressions multiples de notre modèle, un élève qui avait de bonnes capacités d’attention ou de motricité fine à la maternelle, avait plus de chances d’avoir de bonnes habiletés d’écriture en 3ème année. L’interaction entre l’attention et la motricité fine était aussi significative, ce qui signifie que les capacités d’attention, avec l’influence des habiletés de motricité fine, prédisent davantage les habiletés d’écriture ultérieure. Il est pertinent de mesurer la réussite scolaire en écriture puisque les élèves à l’école peuvent investir de 31 à 60% de leur temps à réaliser des tâches motrices et 85% de celles-ci incluraient un crayon et du papier (McHale & Cermak, 1992). L’écriture serait aussi importante que les mathématiques et la lecture pour la réussite scolaire (Cutler & Graham, 2008). En identifiant les éléments clés de la réussite en écriture, nous pourrons mieux intervenir et soutenir les élèves, et ainsi, nous pourrions augmenter leurs chances de vivre des expériences positives à l’école, d’obtenir un diplôme et d’ intégrer le marché du travail.
Resumo:
Will Kymlicka a formulé une théorie libérale du droit des minorités en arguant que l'on doit protéger les cultures minoritaires des influences extérieures, car, selon lui, ces cultures fournissent aux individus un contexte de choix significatif qui permet la prise de décision autonome. Il limite donc la portée de sa théorie aux minorités « culturelles », c'est-à-dire les minorités nationales et immigrantes, qui peuvent fournir ce contexte de choix significatif aux individus. Évidemment, les injustices vécues par ces deux types de minorités, aussi sévères soient-elles, n'épuisent pas les expériences d'injustices vécues par les membres de groupes minoritaires et minorisés (i.e. minorités sexuelles, femmes, Afro-Américains, etc.). On pourrait donc être tenté d'élargir la portée de la théorie du droit des minorités pour rendre compte de toutes les injustices vécues en tant que minorité. Toutefois, je défends la thèse selon laquelle cette extension est impossible dans le cadre d'une théorie libérale, car une de ses méthodes typiques, la « théorie idéale », limite la portée critique des thèses de Kymlicka et parce que l'autonomie individuelle a un caractère si fondamental pour les libéraux, qu'ils ne peuvent rendre compte du fait que certaines décisions individuelles autonomes peuvent contribuer à perpétuer des systèmes et des normes injustes.
Resumo:
Le neuroblastome (NB) est la tumeur solide extracranienne la plus fréquente chez le jeune enfant. En dépit de plusieurs avancements thérapeutiques, seulement 60% survivront à long terme. Cette résistance aux traitements est possiblement due, en partie, à la présence des cellules souches cancéreuses (CSC). PARP-1 joue un rôle important dans la chimiorésistance de certaines tumeurs et son inhibition a montré une potentialisation des agents anticancéreux conventionnels. De plus, Bcl-2 est surexprimé dans le NB et son expression accrue contribuerait à la résistance à la chimiothérapie. Le but de notre travail était de déterminer les effets in vitro d’un PARP inhibiteur, AG-014699 (AG), et d’un inhibiteur de Bcl-2, Obatoclax (Obx), in vitro et in vivo, en monothérapie ou en combinaison avec de la Doxorubicine (Doxo) ou du Cisplatin (Cis), deux agents anticancéreux classiquement utilisés dans le traitement du NB. Afin de déterminer l’expression de PARP-1 dans les tumeurs de NB, nous avons analysé une cohorte de 132 tumeurs. Nous avons utilisé le test MTT afin d’évaluer la sensibilité de 6 lignées cellulaires de NB et des CSC à un traitement avec AG seul ou en combinaison avec de la Doxo ou du Cis. Nous avons déterminé l’étendue de la mort cellulaire par Annexin-V et caractérisé les dommages à l’ADN à l’aide d’un marquage γH2aX. De plus, les modulations des voies de signalisation intracellulaire ont été analysées par Western Blot. La sensibilité des cellules à l’Obx a été analysée par MTT sur 6 lignées cellulaires de NB et sa combinaison avec le Cis a également été déterminée dans 2 lignées cellulaires. Le marquage Annexin-V et des combinaisons avec ZVAD-FMK ont aussi été utilisés pour caractériser les effets d’Obx sur l’apoptose. Des expériences in vivo ont également été faites. Nos résultats démontrent que l’expression de PARP-1 est associée aux tumeurs moins agressives. AG n’a peu ou pas effet sur la croissance tumorale et ne potentialise pas significativement les effets de la Doxo ou de Cis. AG combiné à la Doxo semble sensibiliser les CSC dans une lignée cellulaire. L’Annexin-V et le marquage γH2aX ne révèlent pas d’effets synergiques de cette combinaison et les dommages à l’ADN et la mort cellulaire observés sont attribués à la Doxo. Cependant, on observe une augmentation d’apoptose et de bris d’ADN dans une lignée cellulaire (SK-N-FI) lorsqu’AG est utilisé en monothérapie. On observe une surexpression de pAKT et pERK suite à la combinaison Doxo et AG. Les cellules de NB sont sensibles à l’Obx à des concentrations à l’échelle nanomolaire. De plus, Obx active la mort cellulaire par apoptose. Aussi, Obx a un effet synergique avec le Cis in vitro. In vivo, l’Obx diminue significativement la taille tumorale. Nous concluons que l’Obx présente une avenue thérapeutique prometteuse dans le traitement du NB alors que l’utilisation d’AG ne semble pas être aussi encourageante.
Resumo:
L'objectif de ce projet de recherche était d'approfondir notre compréhension des liens entre communauté et cinéma, rendus possibles par et pour le film documentaire, à travers l'analyse des interactions entre le cinéaste, la personne filmée et le spectateur. L'expérience cinématographique sera analysée d'une part en tant que pratique sociale à travers la prise en considération du contexte de production des films. D'autre part, le film sera aussi considéré comme expérience imaginaire de sociabilité. Les trois films de notre corpus s'intéressent à des expériences communautaires atypiques et mettent en scène des relations fragiles et précaires avec des personnes souffrant de troubles sociaux majeurs, c'est-à-dire des psychotiques, des déficients intellectuels profonds ou des autistes. C'est à partir de l'expérience de l'apparente insociabilité de ces individus que nous réfléchirons au lien d'accompagnement ainsi qu'au concept de care qui seront envisagés, aussi, comme pouvant traduire la relation particulière qui a lieu entre le spectateur et le film. En effet, le cinéma permet l'élaboration d'une expérience relationnelle construite dans les œuvres médiatiques. Le dispositif filmique donne l'occasion au spectateur d'expérimenter des postures morales et affectives nouvelles. Nous tiendrons compte, au cours de ce mémoire, de la façon dont les choix esthétiques du cinéaste peuvent éduquer et faire évoluer la sensibilité du spectateur. Nous essaierons aussi de souligner les différents jeux de pouvoir et d'influence entre les trois instances que sont le cinéaste, la personne filmée et le spectateur. Après avoir décrit le cadre et les enjeux théoriques du projet, le premier chapitre concernera le film La Moindre des choses (1996) dans lequel Nicolas Philibert filme, jour après jour, les pensionnaires de la clinique psychiatrique de la Borde. Ce film nous a servi de prétexte pour penser ou repenser la place du spectateur comme étant inclus dans la relation entre le cinéaste et la personne filmée et cela à partir de cette phrase d'un des protagonistes du film : « On est entre nous, mais vous aussi, vous êtes entre nous. » Le deuxième chapitre s'intéressera au film Ce Gamin là (1985) de Renaud Victor qui cherche à faire voir au spectateur ce que le projet de Fernand Deligny de vivre dans les Cévennes en compagnie d'enfants autistes a d'original et de particulier. Nous pensons que l'enfant autiste nous amène à dépasser nos expériences de sociabilités habituelles. Le lien d'accompagnement d'enfants autistes, puisque toujours fragile et précaire, révèle quelque chose sur nos façons d'avoir du commun. L'étude des médias et de la médiation est pertinente parce qu'elle nous permet de multiplier et de diversifier les modes de communications. Dans Ce Gamin-là, bien que les images permettent au cinéaste de rendre compte de l'événement d'un contact, l'accent sera mis sur l'analyse du commentaire de Deligny, puisqu'il accompagne le spectateur dans l'appréhension d'une réalité qui lui est étrangère. Ce film nous a aussi appris que l’étude des techniques utilisées nous renseigne sur les différentes façons de dire ou de montrer un lien communautaire, affectif ou social particulier. Le Moindre Geste (1971) qui permet à Yves Guignard, déficient intellectuel sévère, de devenir le héros d'un film, se distingue des deux autres films de par la distinction radicale entre les deux étapes du tournage et du montage. Le troisième chapitre se concentrera, d'une part, sur l'analyse de la relation qui se développe entre Yves et Josée Manenti à la caméra. Ensuite, nous verrons de quelle façon le jeu du montage de Jean-Pierre Daniel laisse une grande liberté à Yves, mais aussi au spectateur en multipliant les possibilités d'interprétations.
Resumo:
L’objectif de cette recherche est de comparer deux modes d’intervention internationale (étatique et non-étatique) qui ont une optique de maintien ou de rétablissement de l’ordre et de la paix, de développement économique et social, pour des raisons humanitaires. De fait, la frontière est aujourd’hui floue entre les interventions étatiques et non-étatiques. Pour éviter une confusion conceptuelle, l’objet de l’étude est la comparaison de trois moments historiques d’intervention américaine en Haïti. L’étude se déroule en deux temps. D’abord elle servira à comprendre la logique d’action de l’État américain lors des interventions passées et présente afin de relever les objectifs implicites et explicites de ces interventions. Dans un deuxième temps elle se concentrera sur la biopolitique dans l’intervention humanitaire et l’application de la théorie de régulation du chaos. Celle-ci impliquant des conditions variées, elle propose un modèle théorique qui vise à comprendre l’intervention contemporaine en tant que nouveau cadre épistémique d’action politique, celle du ‘chaos régulé’ (‘Regulated Chaos’: McFalls, Pandolfi, Nguyen). Cette recherche transpose donc l’emphase sur la nécessité effective de l’intervention vers les propriétés de l’intervention. Elle est une tentative de comprendre les expériences sociales de pouvoir dans une zone humanitaire comme Port-au-Prince.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
Compte-rendu / Review
Resumo:
«Building Blocks: Children’s Literature and the Formation of a Nation, 1750-1825» examine la façon dont la littérature pour enfants imprègne les jeunes lecteurs avec un sens de nationalisme et d'identité nationale à travers la compréhension des espaces et des relations spatiales. La thèse étudie les œuvres d’enfants par Thomas Day, Sarah Fielding, Mary Wollstonecraft, Richard Lovell et Maria Edgeworth, Charles et Mary Lamb, Sarah Trimmer, Lucy Peacock, Priscilla Wakefield, John Aikin, et Anna Laetitia Barbauld. Les différents sujets thématiques reflètent la façon dont les frontières entre les dimensions extérieures et intérieures, entre le monde physique et le domaine psychologique, sont floues. En s'appuyant sur les travaux de penseurs éducatifs, John Locke et Jean-Jacques Rousseau, les écritures pour les enfants soulignent l'importance des expériences sensorielles qui informent l’évolution interne des individus. En retour, la projection de l'imagination et l'investissement des sentiments aident à former la manière dont les gens interagissent avec le monde matériel et les uns envers les autres afin de former une nation. En utilisant une approche Foucaldienne, cette thèse montre comment la discipline est inculquée chez les enfants et les transforme en sujets réglementés. Grâce à des confessions et des discours, les enfants souscrivent à la notion de surveillance et de transparence tandis que l'appréciation de l'opinion publique encourage la pratique de la maîtrise de soi. Les enfants deviennent non seulement des ébauches, sensibles à des impressions, mais des corps d'écriture lisibles. Les valeurs et les normes de la société sont internalisées pendant que les enfants deviennent une partie intégrale du système qu'ils adoptent. L'importance de la visibilité est également soulignée dans la popularité du système de Linné qui met l'accent sur l'observation et la catégorisation. L'histoire naturelle dans la littérature enfantine renforce la structure hiérarchique de la société, ce qui souligne la nécessité de respecter les limites de classes et de jouer des rôles individuels pour le bien-être de la collectivité. Les connotations religieuses dans l'histoire naturelle peuvent sembler justifier l'inégalité des classes, mais elles diffusent aussi des messages de charité, de bienveillance et d'empathie, offrant une alternative ou une forme d’identité nationale «féminine» qui est en contraste avec le militarisme et le nationalisme patricien. La seconde moitié de la thèse examine comment la théorie des « communautés imaginées » de Benedict Anderson devient une possibilité à travers le développement du goût national et une compréhension de l'interconnexion entre les individus. Le personnage du barde pointe à la centralité de l'esprit communautaire dans l'identité nationale. Parallèlement à la commercialisation croissante de produits culturels et nationaux durant cette période, on retrouve l’augmentation de l’attachement affectif envers les objets et la nécessité de découvrir l'authentique dans la pratique de la réflexion critique. La propriété est redéfinie à travers la question des «vrais» droits de propriété et devient partagée dans l'imaginaire commun. Des cartes disséquées enseignent aux enfants comment visualiser des espaces et des frontières et conceptualisent la place de l’individu dans la société. Les enfants apprennent que des actions disparates effectuées dans la sphère domestique ont des répercussions plus importantes dans le domaine public de la nation.