20 resultados para Dynamic acceptation and rejection strategy
em Université de Montréal, Canada
Resumo:
Cette thèse porte sur les problèmes de tournées de véhicules avec fenêtres de temps où un gain est associé à chaque client et où l'objectif est de maximiser la somme des gains recueillis moins les coûts de transport. De plus, un même véhicule peut effectuer plusieurs tournées durant l'horizon de planification. Ce problème a été relativement peu étudié en dépit de son importance en pratique. Par exemple, dans le domaine de la livraison de denrées périssables, plusieurs tournées de courte durée doivent être combinées afin de former des journées complètes de travail. Nous croyons que ce type de problème aura une importance de plus en plus grande dans le futur avec l'avènement du commerce électronique, comme les épiceries électroniques, où les clients peuvent commander des produits par internet pour la livraison à domicile. Dans le premier chapitre de cette thèse, nous présentons d'abord une revue de la littérature consacrée aux problèmes de tournées de véhicules avec gains ainsi qu'aux problèmes permettant une réutilisation des véhicules. Nous présentons les méthodologies générales adoptées pour les résoudre, soit les méthodes exactes, les méthodes heuristiques et les méta-heuristiques. Nous discutons enfin des problèmes de tournées dynamiques où certaines données sur le problème ne sont pas connues à l'avance. Dans le second chapitre, nous décrivons un algorithme exact pour résoudre un problème de tournées avec fenêtres de temps et réutilisation de véhicules où l'objectif premier est de maximiser le nombre de clients desservis. Pour ce faire, le problème est modélisé comme un problème de tournées avec gains. L'algorithme exact est basé sur une méthode de génération de colonnes couplée avec un algorithme de plus court chemin élémentaire avec contraintes de ressources. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. Le troisième chapitre propose donc une méthode de recherche adaptative à grand voisinage qui exploite les différents niveaux hiérarchiques du problème (soit les journées complètes de travail des véhicules, les routes qui composent ces journées et les clients qui composent les routes). Dans le quatrième chapitre, qui traite du cas dynamique, une stratégie d'acceptation et de refus des nouvelles requêtes de service est proposée, basée sur une anticipation des requêtes à venir. L'approche repose sur la génération de scénarios pour différentes réalisations possibles des requêtes futures. Le coût d'opportunité de servir une nouvelle requête est basé sur une évaluation des scénarios avec et sans cette nouvelle requête. Enfin, le dernier chapitre résume les contributions de cette thèse et propose quelques avenues de recherche future.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Plusieurs études ont permis la caractérisation de la structure et de la fonction du ribosome. En ce qui attrait à la biogénèse du ribosome, nombreux aspects restent à être découverts et compris de façon plus dynamique. En effet, cette biogénèse englobe une variété de voies de modifications et d’assemblages requises pour la maturation des ARNr et pour leurs liaisons avec les protéines ribosomales. De ce fait, les protéines Noc ont été caractérisées comme des facteurs d’assemblages et ont permis la découverte d’une des premières indications sur l’ordre spatio-temporel de la maturation du ribosome. Ainsi, en utilisant la levure comme modèle, notre objectif est d’étudier d’avantage l’échange des complexes composés des protéines Noc ainsi que leur localisation intranucléaire. Ainsi, la nature des interactions de Noc2p avec Noc1p et Noc3p et l’influence de l’arrêt du transport intranucléaire ont été étudiés en utilisant des promoteurs inductibles, la microscopie à fluorescence, des immunobuvardages, qRT-PCR et des purifications par affinité.
Resumo:
We study the problem of assigning indivisible and heterogenous objects (e.g., houses, jobs, offices, school or university admissions etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. We consider mechanisms satisfying a set of basic properties (unavailable-type-invariance, individual-rationality, weak non-wastefulness, or truncation-invariance). In the house allocation problem, where at most one copy of each object is available, deferred-acceptance (DA)-mechanisms allocate objects based on exogenously fixed objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm. For house allocation we show that DA-mechanisms are characterized by our basic properties and (i) strategy-proofness and population-monotonicity or (ii) strategy-proofness and resource-monotonicity. Once we allow for multiple identical copies of objects, on the one hand the first characterization breaks down and there are unstable mechanisms satisfying our basic properties and (i) strategy-proofness and population-monotonicity. On the other hand, our basic properties and (ii) strategy-proofness and resource-monotonicity characterize (the most general) class of DA-mechanisms based on objects' fixed choice functions that are acceptant, monotonic, substitutable, and consistent. These choice functions are used by objects to reject agents in the agent-proposing deferred-acceptance-algorithm. Therefore, in the general model resource-monotonicity is the «stronger» comparative statics requirement because it characterizes (together with our basic requirements and strategy-proofness) choice-based DA-mechanisms whereas population-monotonicity (together with our basic properties and strategy-proofness) does not.
Resumo:
In a linear production model, we characterize the class of efficient and strategy-proof allocation functions, and the class of efficient and coalition strategy-proof allocation functions. In the former class, requiring equal treatment of equals allows us to identify a unique allocation function. This function is also the unique member of the latter class which satisfies uniform treatment of uniforms.
Resumo:
In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.
Resumo:
We introduce and axiomatize a one-parameter class of individual deprivation measures. Motivated by a suggestion of Runciman, we modify Yitzhaki’s index by multiplying it by a function that is interpreted as measuring the part of deprivation generated by an agent’s observation that others in its reference group move on to a higher level of income than itself. The parameter reflects the relative weight given to these dynamic considerations, and the standard Yitzhaki index is obtained as a special case. In addition, we characterize more general classes of measures that pay attention to this important dynamic aspect of deprivation.
Resumo:
Quelques évidences suggèrent que Bcl-xL, un membre anti-apoptotique de la famille Bcl-2, possède également des fonctions au niveau du cycle cellulaire et de ses points-contrôle. Pour étudier la régulation et fonction de Bcl-xL au cours du cycle cellulaire, nous avons généré et exprimé dans des cellules humaines une série de mutants de phosphorylation incluant Thr41Ala, Ser43Ala, Thr47Ala, Ser49Ala, Ser56Ala, Ser62Ala et Thr115Ala. L'analyse de cette série de mutants révèle que les cellules exprimant Bcl-xL(Ser62Ala) sont moins stables au point-contrôle G2 du cycle cellulaire comparées aux cellules exprimant le type sauvage ou les autres mutants de phosphorylation incluant Thr41Ala, Ser43Ala, Thr47Ala, Ser56Ala et Thr115Ala. Les études de cinétiques de phosphorylation et de localisation de phospho-Bcl-xL(Ser62) dans des cellules synchronisées et suite à l'activation du point-contrôle en G2 médié par l'étoposide (VP16), nous indiquent que phospho-Bcl-xL(Ser62) migre dans les corps nucléolaires durant l'arrêt en G2 dans les cellules exposées au VP16. Une série d'expériences incluant des essais kinase in vitro, l'utilisation d'inhibiteurs pharmacologiques et d'ARN interférant, nous révèlent que Polo kinase 1 (PLK1) et MAPK9/JNK2 sont les protéines kinase impliquées dans la phosphorylation de Bcl-xL(Ser62), et pour son accumulation dans les corps nucléolaires pendant le point-contrôle en G2. Nos résultats indiquent que durant le point-contrôle en G2, phospho-Bcl-xL(Ser62) se lie et se co-localise avec CDK1(CDC2), le complexe cycline-kinase qui contrôle l'entrée en mitose. Nos résultats suggèrent que dans les corps nucléolaires, phospho-Bcl-xL(Ser62) stabilise l'arrêt en G2 en séquestrant CDK1(CDC2) pour retarder l'entrée en mitose. Ces résultats soulignent également que les dommages à l'ADN influencent la composition des corps nucléolaires, structure nucléaire qui émerge maintenant comme une composante importante de la réponse aux dommages à l'ADN. Dans une deuxième étude, nous décrivons que les cellules exprimant le mutant de phosphorylation Bcl-xL(Ser62Ala) sont également plus stables au point-contrôle de l'assemblage du fuseau de la chromatine (SAC) suite à une exposition au taxol, comparées aux cellules exprimant le type sauvage ou d'autres mutants de phosphorylation de Bcl-xL, incluant Thr41Ala, Ser43Ala, Thr47Ala, Ser56Ala. Cet effet est indépendent de la fonction anti-apoptotique de Bcl-xL. Bcl-xL(Ser62) est fortement phosphorylé par PLK1 et MAPK14/SAPKp38α à la prométaphase, la métaphase et à la frontière de l'anaphase, et déphosphorylé à la télophase et la cytokinèse. Phospho-Bcl-xL(Ser62) se trouve dans les centrosomes avec γ-tubuline, le long du fuseau mitotique avec la protéine moteure dynéine et dans le cytosol mitotique avec des composantes du SAC. Dans des cellules exposées au taxol, phospho-Bcl-xL(Ser62) se lie au complexe inhibiteur CDC20/MAD2/BUBR1/BUB3, alors que le mutant Bcl-xL(Ser62Ala) ne se lie pas à ce complexe. Ces résultats indiquent que durant le SAC, la phosphorylation de Bcl-xL(Ser62) accélère la résolution du SAC et l'entrée des cellules en anaphase. Des expériences bloquant l'expression de Bcl-xL révèlent ègalement un taux très élevé de cellules tétraploïdes et binuclées après un traitement au nocodazole, consistant avec une fonction de Bcl-xL durant la mitose et dans la stabilité génomique. Dans la troisième étude, l'analyse fonctionnelle de cette série de mutants de phosphorylation indique également que les cellules exprimant Bcl-xL(Ser49Ala) sont moins stables durant le point-contrôle G2 et entre en cytokinèse plus lentement dans des cellules exposées aux inhibiteurs de la polymérisation/dépolymérisation des tubulines, composantes des microtubules. Ces effets de Bcl-xL(Ser49Ala) sont indépendents de sa fonction anti-apoptotique. La phosphorylation de Bcl-xL(Ser49) est dynamique au cours du cycle cellulaire. Dans des cellules synchronisées, Bcl-xL(Ser49) est phosphorylé en phase S et G2, déphosphorylé à la prométaphase, la métaphase et à la frontière de l'anaphase, et re-phosphorylé durant la télophase et la cytokinèse. Au cours du point-contrôle G2 induit par les dommages à l'ADN, un pool important de phospho-Bcl-xL(Ser49) se trouve aux centrosomes, un site important pour la régulation de l'entrée en mitose. Durant la télophase et la cytokinèse, phospho-Bcl-xL(Ser49) se trouve le long des microtubules avec la protéine moteure dynéine et dans le cytosol mitotique. Finalement, nos résultats suggèrent que PLK3 est responsable de la phosphorylation de Bcl-xL(Ser49), une protéine kinase impliquée pour l'entrée des cellules en mitose et pour la progression de la mitose jusqu'à la division cellulaire.
Resumo:
Cette thèse s’intéresse à l’amélioration des soins et des services de santé et touche aux relations entre 3 grands thèmes de l’analyse des organisations de santé : la gouvernance, le changement et les pratiques professionnelles. En nous appuyant sur l’analyse organisationnelle contemporaine, nous visons à mieux comprendre l’interface entre l’organisation et les pratiques cliniques. D’une part, nous souhaitons mieux comprendre comment l’organisation structure et potentialise les pratiques des acteurs. D’autre part, dans une perspective d’acteurs stratégiques, nous souhaitons mieux comprendre le rôle des pratiques des professionnels dans l’actualisation de leur profession et dans la transformation et l’évolution des organisations. Notre étude se fonde sur l’hypothèse qu’une synergie accrue entre l’organisation et les pratiques des professionnels favorisent l’amélioration de la qualité des soins et des services de santé. En 2004, le gouvernement ontarien entreprend une importante réforme des soins et services dans le domaine du cancer et revoit les rôles et mandats du Cancer Care Ontario, l’organisation responsable du développement des orientations stratégiques et du financement des services en cancer dans la province. Cette réforme appelle de nombreux changements organisationnels et cliniques et vise à améliorer la qualité des soins et des services dans le domaine de l’oncologie. C’est dans le cadre de cette réforme que nous avons analysé l’implantation d’un système de soins et de services pour améliorer la performance et la qualité et analysé le rôle des pratiques professionnelles, spécifiquement les pratiques infirmières, dans la transformation de ce système. La stratégie de recherche utilisée correspond à l’étude approfondie d’un cas correspondant à l’agence de soins et de services en oncologie en Ontario, le Cancer Care Ontario, et des pratiques professionnelles infirmières évoluant dans ce modèle. Le choix délibéré de ce cas repose sur les modalités organisationnelles spécifiques à l’Ontario en termes de soins en oncologie. La collecte de données repose sur 3 sources principales : les entrevues semi-structurées (n=25), l’analyse d’une abondante documentation et les observations non participatives. La thèse s’articule autour de trois articles. Le premier article vise à définir le concept de gouvernance clinique. Nous présentons l’origine du concept et définissons ses principales composantes. Concept aux frontières floues, la gouvernance clinique est axée sur le développement d’initiatives cliniques et organisationnelles visant à améliorer la qualité des soins de santé et la sécurité des patients. L’analyse de la littérature scientifique démontre la prédominance d’une vision statique de la gouvernance clinique et d’un contrôle accentué des pratiques professionnelles dans l’atteinte de l’efficience et de l’excellence dans les soins et les services. Notre article offre une conception plus dynamique de la gouvernance clinique qui tient compte de la synergie entre le contexte organisationnel et les pratiques des professionnels et soulève les enjeux reliés à son implantation. Le second article s’intéresse à l’ensemble des leviers mobilisés pour institutionnaliser les principes d’amélioration continue de la qualité dans les systèmes de santé. Nous avons analysé le rôle et la portée des leviers dans l’évolution du système de soins en oncologie en Ontario et dans la transformation des pratiques cliniques. Nos données empiriques révèlent 3 phases et de nombreuses étapes dans la transformation du système. Les acteurs en position d’autorité ont mobilisé un ensemble de leviers pour introduire des changements. Notre étude révèle que la transformation du Cancer Care Ontario est le reflet d’un changement radical de type évolutif où chacune des phases est une période charnière dans la transformation du système et l’implantation d’initiatives de qualité. Le troisième article pose un regard sur un levier spécifique de transformation, celui de la communauté de pratique, afin de mieux comprendre le rôle joué par les pratiques professionnelles dans la transformation de l’organisation des soins et ultimement dans le positionnement stratégique de la profession infirmière. Nous avons analysé les pratiques infirmières au sein de la communauté de pratique (CDP) des infirmières en pratique avancée en oncologie. En nous appuyant sur la théorie de la stratégie en tant que pratique sociale, nos résultats indiquent que l’investissement de la profession dans des domaines stratégiques augmente les capacités des infirmières à transformer leurs pratiques et à transformer l’organisation. Nos résultats soulignent le rôle déterminant du contexte dans le développement de capacités stratégiques chez les professionnels. Enfin, nos résultats révèlent 3 stratégies émergentes des pratiques des infirmières : une stratégie de développement de la pratique infirmière en oncologie, une stratégie d’institutionnalisation des politiques de la CDP dans le système en oncologie et une stratégie de positionnement de la profession infirmière. Les résultats de notre étude démontrent que l’amélioration de la qualité des soins et des services de santé est située. L’implantation de transformations dans l’ensemble d’un système, tel que celui du cancer en Ontario, est tributaire d’une part, des capacités d’action des acteurs en position d’autorité qui mobilisent un ensemble de leviers pour introduire des changements et d’autre part, de la capacité des acteurs à la base de l’organisation à s’approprier les leviers pour développer un projet professionnel, améliorer leurs pratiques professionnelles et transformer le système de soins.
Resumo:
Cette dissertation traite des (re)configurations postcoloniales de la résistance et de la négociation comme concepts permettant d’aborder les représentations des conflits nationaux dans les littératures Africaines contemporaines. Ensemble, ces concepts ouvrent de nouvelles voix et possibilités de se remémorer, de raconter, et de lire la violence en problématisant non seulement les discours sur la guerre civile en Afrique, mais aussi les conceptions d’histoire nationale, de la mémoire, et de leur représentation. Si cette étude cherche à reconfigurer la négociation et la résistance au-delà des définitions qui tendent à les opposer, elle se consacre surtout à développer la notion de négociation comme stratégie de dépassement, de lecture, et d’écriture, qui, néanmoins, ne vise pas de résolution. La négociation implique ainsi une conception pluraliste d’un pouvoir d’action sociale, politique, et culturelle. Cette dissertation avance que la négociation est un concept d’écriture et de lecture qui intervient dans les événements, discours, et pratiques de remémoration en prenant compte de leurs multiplicités et définitions instables. Cette étude explore les manières selon lesquelles Nuruddin Farah, Chenjerai Hove, Yvonne Vera, Chimamanda Adichie, et Sefi Atta déploient la négociation et la résistance comme outils d’engagement esthétique et sociopolitique dans la narration de la violence en Somalie, au Zimbabwe, et au Nigeria. En outre, la négociation marque mon analyse de l’intervention des textes dans les discours d’historiographie et de représentation. Si ces romans mettent en exergue la généalogie complexe du conflit postcolonial, ils négocient aussi les implications multiples, incluant la leur, dans les questions problématiques de la responsabilité et de la représentation. La vii négociation représente un acte conscient à travers lequel nous reconnaissons l’instabilité de toute bataille politique, morale, ou éthique sans pour autant céder à un cynisme paralysant. De par son approche négociée et interdisciplinaire, cette dissertation ne fait pas qu’entrer en débat avec des discours multiples des études postcoloniales, Africaines, et littéraires. Elle intervient aussi dans les conceptions de la nation, la violence, la mémoire, la responsabilité, et la justice selon les études philosophiques, politiques, et culturelles. Outre les critiques littéraires, les chapitres interrogent les théories de penseurs tels Ngugi wa Thiong’o, David Jefferess, Pheng Cheah, et Wole Soyinka. Cette approche éclectique reflète l’attention des romans à la complexité irréductible des responsabilités individuelles et collectives dans les récits d’histoire et d’appartenance nationales. Cet engagement négocié avec les questions entourant la postcolonialité, malgré la dominance actuelle des discours de la globalisation, permet de reconceptualiser l’approche postcoloniale pour contrer les analyses déhistorisées et décontextualisées des conflits sociopolitiques en Afrique. Le chapitre 1 élabore les concepts clés de la dissertation. Le chapitre 2 explore la résistance et la négociation dans le langage figuré métonymique dans les représentations de la guerre en Somalie. Le chapitre 3 se consacre à l’analyse de la figure de la spectralité dans la narration de l’histoire et de la violence nationales au Zimbabwe. Finalement, le chapitre 4 négocie les concepts de représentation et de responsabilité dans les récits du trauma postcolonial au Nigeria. viii Mots-clés : négociation, résistance, littératures africaines, violence, responsabilité, nation, représentation
Resumo:
Le système de différenciation entre le « soi » et le « non-soi » des vertébrés permet la détection et le rejet de pathogènes et de cellules allogéniques. Il requiert la surveillance de petits peptides présentés à la surface cellulaire par les molécules du complexe majeur d’histocompatibilité de classe I (CMH I). Les molécules du CMH I sont des hétérodimères composés par une chaîne lourde encodée par des gènes du CMH et une chaîne légère encodée par le gène β2-microglobuline. L’ensemble des peptides est appelé l’immunopeptidome du CMH I. Nous avons utilisé des approches en biologie de systèmes pour définir la composition et l’origine cellulaire de l’immunopeptidome du CMH I présenté par des cellules B lymphoblastoïdes dérivés de deux pairs de fratries avec un CMH I identique. Nous avons découvert que l’immunopeptidome du CMH I est spécifique à l’individu et au type cellulaire, qu’il dérive préférentiellement de transcrits abondants, est enrichi en transcrits possédant d’éléments de reconnaissance par les petits ARNs, mais qu’il ne montre aucun biais ni vers les régions génétiques invariables ni vers les régions polymorphiques. Nous avons également développé une nouvelle méthode qui combine la spectrométrie de masse, le séquençage de nouvelle génération et la bioinformatique pour l’identification à grand échelle de peptides du CMH I, dont ceux résultants de polymorphismes nucléotidiques simples non-synonymes (PNS-ns), appelés antigènes mineurs d’histocompatibilité (AMHs), qui sont les cibles de réponses allo-immunitaires. La comparaison de l’origine génomique de l’immunopeptidome de soeurs avec un CMH I identique a révélé que 0,5% des PNS-ns étaient représentés dans l’immunopeptidome et que 0,3% des peptides du CMH I seraient immunogéniques envers une des deux soeurs. En résumé, nous avons découvert des nouveaux facteurs qui modèlent l’immunopeptidome du CMH I et nous présentons une nouvelle stratégie pour l’indentification de ces peptides, laquelle pourrait accélérer énormément le développement d’immunothérapies ciblant les AMHs.
Resumo:
Ce que nous proposons de faire dans ce mémoire est de s’attarder au phénomène spécifique de la lecture des scénarios dans le contexte institutionnel québécois. Nous analyserons un corpus de cent soixante douze rapports de lecture de scénarios de longs métrages de fiction rédigés entre 1972 et 2004. Il n’existe, à notre connaissance, aucune étude portant spécifiquement sur un corpus de rapports de lecture. Dans un premier temps, nous situerons le rôle et la place du scénario dans l’histoire de la production de films de fiction québécoise, entre acceptation et refus. Ensuite, nous nous intéresserons à la manière dont concrètement les scénarios sont lus : par qui, comment, dans quelles conditions, avec quels objectifs. Enfin, en utilisant une analyse par théorisation ancrée (grounded theory), nous identifierons, à partir des commentaires émis dans les rapports, cinq entités sur lesquelles le lecteur se fonde pour formuler son jugement. Il s’agit du scénariste, du scénario proposé, du lecteur lui-même, du film à faire et du spectateur présumé que nous nommerons fictif. Nous en conclurons que le lecteur de scénario occupe une fonction de médiateur entre un texte et son auteur d’une part et un futur film et son spectateur réel d’autre part. Cette médiation est le lieu de convergence de différentes attentes, celles des lecteurs, des auteurs, des producteurs et des institutions.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.