28 resultados para Expectation
Resumo:
L’expérience de douleur et la réponse à son traitement sont teintées par les facteurs psychologiques, parmi lesquels figurent les attentes. Cette thèse propose de raffiner la compréhension de l’effet des attentes sur la régulation de la douleur par l’entremise de deux études quantitatives. D'abord, une étude expérimentale explore l'impact des attentes sur l'analgésie induite par contre-stimulation. Des volontaires sains ont été assignés à une condition contrôle ou à l’un des trois groupes au sein desquels les attentes étaient évaluées (attentes a priori) ou manipulées par l’entremise de suggestions (hyperalgésie ou analgésie). La douleur, l’anxiété et le réflexe nociceptif de flexion en réponse à des stimulations électriques ont été mesurés avant, pendant et après l’application d’un sac de glace. Les résultats suggèrent que les attentes a priori prédisent l’amplitude de l’analgésie, tandis que les attentes suggérées parviennent à potentialiser ou à bloquer les mécanismes endogènes d'inhibition de la douleur déclenchés par la contre-stimulation, indépendamment du niveau d’anxiété. Ensuite, une étude clinique se penche sur l'apport des attentes aux issues thérapeutiques de patients traités en centres multidisciplinaires de gestion de la douleur chronique. Préalablement au traitement, les attentes des patients quant aux résultats anticipés après six mois de traitement ont été évaluées. Les changements dans l’intensité douloureuse, les symptômes dépressifs, l’interférence de la douleur et la dramatisation face à la douleur, ainsi que l’impression de changement et la satisfaction face au traitement ont été évalués au suivi de six mois. Les résultats d'analyses de modélisation par équations structurelles appuient la relation prédictive entre les attentes et les issues thérapeutiques et soulignent l’impression de changement du patient comme variable médiatrice de cette association. En plus de se montrer supérieur à un modèle alternatif, ce modèle s'est avéré pertinent à travers différents sous-groupes. Dans l'ensemble, cette thèse contribue à démontrer le rôle déterminant des attentes dans le contexte de la douleur, tant au niveau physiologique que thérapeutique. Les conclusions qui se dégagent de cet ouvrage entraînent des retombées non négligeables et réitèrent la nécessité de considérer la perspective du patient afin d'optimiser les soins destinés au soulagement de la douleur.
Arrestation et placement en détention avant jugement : points de vue et expériences des justiciables
Resumo:
Ce mémoire a comme objectif d’analyser le vécu des justiciables placés en détention avant jugement. Plus précisément, cette étude se veut préciser ce vécu sur les volets judiciaire et carcéral impliqués dans une mise en détention provisoire. Nous voulons de plus dégager les sentiments issus d’un tel placement. Enfin, nous souhaitions réfléchir sur le recours à la détention avant jugement à travers la perspective d’un modèle de justice basé sur la gestion des risques et sur une logique d’efficience, d’efficacité et de responsabilisation. Pour ce faire, nous avons utilisé l’approche qualitative pour mener vingt-trois entrevues auprès d’hommes et de femmes incarcérés en attente de leur jugement dans quatre établissements de détention du Québec. De ces entretiens, deux thèmes centraux sont ressortis, soit le Vécus carcéral et judiciaire du prévenu, marqué par l’incertitude, l’incompréhension, l’impuissance, la dépendance, les conditions difficiles de détention, les pertes ainsi que l’attente et les Sentiments issus d’une mise en détention provisoire, marqué par la souffrance, l’injustice et l’urgence de sortir de cette situation provisoire. Il ressort de nos analyses que la façon dont est administré le système de justice, l’opinion du public ainsi que les politiques en vigueur ont un impact sur la façon de gérer le recours à la détention provisoire en favorisant tout le contraire de sa mission initiale. Ainsi, la mesure s’en trouve conduite au détriment de l’acteur principal : le prévenu.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
Les diagrammes de transitions d'états ont été réalisés avec le logiciel Latex.
Resumo:
Si la manière de produire une image depuis la reproductibilité technique a toujours été profondément déterminée par la captation d’une réalité physique, le numérique (qui constitue une méthode d’inscription visuelle distincte) devrait, en théorie, modifier la relation du spectateur à ces « nouvelles images ». Toutefois, en pratique, le spectateur fait-il l’expérience des images numériques d’une manière différente de celles issues de la captation? Afin de répondre à cette question, ce mémoire analyse, à l’aide de l’approche sémio-pragmatique, comment le spectateur a conditionné son regard à travers les techniques de la captation (photographie, cinéma et vidéo). Ensuite, cette étude compare les habitudes et les attentes visuelles engendrées par ces techniques aux images numériques. Enfin, cette étude situe le problème de la rupture dans une perspective plus large que celle des techniques afin de poser le questionnement dans toute une tradition de la représentation artistique.
Resumo:
L’historien n’écrit pas de nulle part. Ancré dans son présent et participant à la société, il en épouse – ou critique – les projets, les utopies et les grands récits. Nous proposons dans ce travail d’approfondir cet ancrage à travers une histoire croisée et comparée des expériences du temps de deux historiens français (Michel de Certeau, François Furet) et d’un historien-sociologue québécois (Fernand Dumont). Notre objectif est double : il s’agit d’établir, dans un premier temps, les correspondances entre leurs expériences lors de deux tournants, celui des années 1960 et celui des années 1970. Tout en prenant en compte les contextes des auteurs à l’étude, nous élargirons l’échelle d’analyse afin de cerner la contemporanéité d’expériences du temps qui ne se réduisent pas aux seuls cadres nationaux. Nous pourrons ainsi établir les coordonnées des régimes d’historicité à chaque tournant en contribuant à préciser les différentes combinaisons des modes futuristes et présentistes en jeu. Dans un deuxième temps, nous explorerons les liens entre historiographie et régime d’historicité afin de mettre en évidence les jonctions entre les considérations épistémologiques et l’horizon d’attente des historiens à l’étude. En abordant plus spécifiquement la question du rôle de l’historien dans sa société, nous jaugeons les transformations parallèles de son expérience du temps et de ses pratiques historiographiques. Le passage de l’expérience d’une Histoire en marche au tournant de 1960 à celle d’une histoire bloquée au tournant de 1970 affecte considérablement la place et le statut de l’historien. D’éminent passeur du temps à l’écoute du sens du progrès, l’historien voit son statut contesté et marginalisé, ce qui ne veut pas dire que son rôle est moins important. Qu’il débusque des alternatives passées ou court-circuite des téléologies, il est chargé de maintenir coûte que coûte ouverts les horizons du temps. Nous verrons spécifiquement le sens que prenait cette tâche à un moment où la possibilité d’une « société nouvelle », après Mai 68, pointait à l’horizon des contemporains.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
Refus global, le recueil, n’est pas « Refus global », le texte rédigé par Paul-Émile Borduas et cosigné par 15 membres du groupe automatiste. Partant de cette distinction entre le recueil automatiste et son texte éponyme et du constat selon lequel la partie éclipse le tout dans le discours critique, cette thèse a pour objectif d’expliquer l’occultation du recueil dans l’histoire sociale et artistique québécoise. À partir de l’étude de la réception de 1948 à 2008, j’interroge la constitution du récit commun entourant l’œuvre, duquel le recueil est exclu. Il s’agit donc de mettre au jour les obstacles qui se sont présentés dans le parcours de réception du recueil, nuisant à la formation d’un discours unifié et cohérent à son sujet et l’empêchant de s’inscrire dans l’histoire. Dégagés de l’étude du corpus composé de 639 objets sémiotiques secondaires (OSS, selon le concept proposé par Brigitte Louichon), les obstacles à la réception du recueil relèvent à la fois de facteurs pragmatiques, telles la composition hétérogène de l’œuvre ou sa disponibilité; de facteurs institutionnels ou historiographiques, comme la disciplinarisation du champ culturel ou l’impact du récit de la Révolution tranquille sur l’histoire littéraire; et de facteurs humains, reposant sur le rôle des auteurs et de certains critiques dans l’accueil réservé à l’œuvre. Les différentes étapes de la réception sont ainsi considérées : de l’horizon d’attente (Jauss) à la réception productive (Link), en passant par la publication, les premières critiques, les rééditions, les lectures savantes, l’historicisation et l’entrée de l’œuvre dans la mémoire à titre de symbole ou d’hypotexte. Or, plutôt qu’à ce parcours de réception exemplaire, c’est son envers qui est interrogé ici, c’est-à-dire les difficultés et les déviations de la réception du recueil Refus global. Cette thèse est divisée en trois parties. La première, théorique et méthodologique, situe mon propos dans les domaines de l’histoire culturelle et des études de réception, et présente diverses considérations concernant la constitution du corpus et le traitement des données. La deuxième aborde l’horizon d’attente et la première réception, moment crucial pour la survie de l’œuvre, comme l’ont montré Hans Robert Jauss et Daniel Chartier. On y observe notamment l’effet de verrou (Cambron) qu’a le renvoi de Borduas sur la constitution du récit de réception, de même que les critères éthiques et esthétiques en fonction desquels s’est opérée la hiérarchisation des composantes du recueil. La troisième partie couvre la réception subséquente (1950-2008). À l’étude des obstacles empêchant l’intégration du recueil dans l’histoire s’ajoute alors l’étude des réceptions parallèles, parcellaires et autonomes dont a bénéficié Refus global pour survivre – ponctuellement et partiellement – en dehors du récit commun formé autour de « Refus global ». Avec les différentes catégories d’OSS (directs, indirects, hypertextuels, métacritiques et parcellaires), ces trois types de réception font partie des outils heuristiques développés dans le but d’expliquer la réception partielle dont a fait l’objet le recueil. Selon l’approche quantitative et environnementaliste de l’histoire culturelle, Refus global est envisagé comme un microcosme de la culture, dans lequel certaines œuvres sont retenues et d’autres négligées. L’analyse d’un corpus critique large et varié permet ainsi de saisir non seulement les phénomènes conduisant à la consécration du texte éponyme ou à l’oubli relatif du recueil, mais aussi les tendances critiques, les parutions marginales, les critiques isolées, etc. qui, enfouies dans les angles morts de la réception, offrent au recueil et à ses composantes des voies de contournement du discours dominant. En somme, l’étude de la réception du recueil Refus global a permis à la fois de déplacer la focalisation critique depuis « Refus global » vers Refus global, de développer des outils pour envisager la réception d’œuvres marginalisées et de mettre en évidence des critères privilégiés dans la constitution de l’histoire et de la mémoire culturelles québécoises depuis 1948.
Resumo:
Ce mémoire étudie les rapports texte/image dans Vues et visions de Claude Cahun, première œuvre composite créée en collaboration avec la peintre graphiste Marcel Moore. L’objet littéraire protéiforme, appartenant au genre de l’iconotexte (Alain Montandon), instaure un dialogue intermédial entre le textuel et le visuel au point de déconstruire l’horizon d’attente du lecteur : celui-ci est incité à lire et à voir alternativement les poèmes en prose ainsi que les dessins de sorte que les frontières qui définissent l’espace du littéral et du figural apparaissent poreuses. Subdivisé en deux chapitres, notre travail s’attachera dans un premier temps à mettre en lumière le rôle de l’écriture qui intègre certains dessins de Moore. En nous inspirant de l’iconolecture (Emmanuelle Pelard), nous tenterons d’effectuer des liens entre la plasticité et la signification littérale des signes linguistiques qu’illustrent ces images-textes tout en étudiant les correspondances thématiques et formelles qu’elles entretiennent avec les poèmes de Cahun. Le second chapitre étudiera la manière dont le figural investit le texte littéraire en adoptant une approche intermédiale. Après avoir abordé la figure du double, une partie de l’analyse sera consacrée à la figure de l’allusion, une stratégie d’écriture pour introduire le visuel au sein du textuel, ce qui nous permettra d’entrer en matière pour étudier « l’image-en-texte » (Liliane Louvel). Enfin, l’effet-tableau ainsi que l’anamorphose seront employés comme cadre d’analyse afin de penser le dialogue qui se noue entre le pictural et le texte littéraire dans Vues et visions.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
La gouvernance des sociétés par actions canadiennes accorde une place aux créanciers, qui contribuent considérablement à leur financement. Les créanciers fournissent une prestation en échange d’une promesse d’être payé plus tard, de sorte qu’ils sont en conflit d’agence avec d’autres parties prenantes de la société par actions, particulièrement les dirigeants. Principale voie procédurale des litiges en droit des sociétés, le recours en cas d’abus (ou « recours en oppression ») permet d’endiguer certains aspects de ce conflit d’agence en octroyant aux tribunaux de larges pouvoirs pour pallier les abus. Cette intervention judiciaire s’exprime par la théorie des attentes raisonnables, selon laquelle le tribunal doit protéger non seulement les droits des parties, mais également leurs attentes raisonnables. La jurisprudence permet de conclure à des attentes raisonnables relativement à l’information fournie par la société, au patrimoine social et au processus décisionnel des dirigeants. Elle laisse également entrevoir une attente raisonnable à l’égard des modifications du partage des risques découlant d’un événement imprévisible.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Cette thèse trace la généalogie culturelle de la jeune fille en Occident en ciblant les moments charnières de son devenir femme au sein de structures de savoir qui ont activement participé à forger cette figure hétéronormative. Mon objectif est de produire une analyse culturelle en forgeant une cartographie des adolescences au féminin. Afin de sortir de la temporalité téléologique de la virginité et de la défloration, j’emprunte un mot étranger, parthénos, qui fait appel à l’idée de la jeune fille, sans nécessairement se limiter à ses connotations conventionnelles. La première partie, intitulée « La virginité, une affaire de jeunes filles », laisse place à une analyse du concept de parthénos à partir d’une lecture au carrefour de la médecine, de la loi et du mythe. Une lecture du traité hippocratique De la maladie des jeunes filles dévoile comment la défloration et la grossesse deviennent une cure érotique, une discipline du corps, qui décide du passage de la jeune fille dans une temporalité utile à la Cité. Un déplacement paradigmatique s’opère au 19e siècle dans les écrits médico-légaux, parce que l’hymen, auparavant inexistant dans la doxa hippocratique, devient le signe matériel par excellence pour examiner le statut de virginité de la fille. L’analyse de ces traités (frères Beck, Ambroise Tardieu, Paulier et Hétet) révèle la configuration de pratiques et de discours d’infantilisation des victimes de viol, et le refus des médecins légistes de reconnaître qu’une femme mariée puisse être violée. À partir d’une lecture contemporaine des tragédies L’Orestie d’Eschyle et Antigone de Sophocle, je montre que les figures d’Antigone et d’Électre constituent des exemples et des symboles convaincants de ce destin funeste de la parthénos qui n’accède jamais au statut de femme mariée. À ces figures mortelles, se télescopent les figures d’Artémis et des Érinyes pour montrer le potentiel de régénération inhérent à la figure de la parthénos. La deuxième partie, qui porte le titre « Le liminaire. Repenser les devenirs de l’adolescence », engage une réflexion à la lisière du contexte contemporain des Girlhood Studies, de la psychanalyse sociale et des études féministes sur le corps et le sexe, pour faciliter le déploiement d’une cartographie plus contextualisée du concept de parthénos. Je montre ici les écueils et les effets du danger qu’engendre la rationalité économique (cf. Henry A. Giroux) pour les espaces de liberté et d’exploration propres à l’adolescence. Cette posture est appuyée sur une lecture des récentes études en psychanalyse sociale (Anne Bourgain, Olivier Douville et Edmond Ortigues). Il est ainsi question d’identifier ce qui marque le passage entre l’adolescence et l’âge adulte : la crainte de la disparition et le fantasme de la naissance de soi. La théorie de la volatilité corporelle qu’élabore Elizabeth Grosz à propos de la sexualité féminine, ainsi que les théories de Michel Foucault, reprises par Judith Butler, en ce qui concerne les disciplines du corps, répondent à mon objectif de sortir de l’écueil d’une temporalité téléologique pour saisir les effets et les ramifications du discours sur la matérialité du corps de la jeune fille, sur ce qui lui arrive lorsqu’elle ne correspond pas tout à fait à l’idéal de régulation. Enfin, la dernière partie, qui porte le titre « Temporalités de la parthénos en tant que sujet liminaire », est traversée par les modalités particulières de la parthénia qui semble désincarnée dans la littérature contemporaine. L’objectif est de prouver que la virginité est toujours un marqueur symbolique qui déploie le destin de la fille dans un horizon particulier, trop souvent celui de la disparition. En proposant un éventail de cinq textes littéraires que j’inscris au sein d’une posture généalogique, je souhaite voir dans la littérature contemporaine, une volonté, parfois aussi un échec, dans cette pensée de la parthénos en tant que sujet liminaire. Le récit Vu du ciel de Christine Angot montre que l’ascension vers le statut d’ange concerne seulement les victimes enfants. Le récit d’Angot met donc en lumière la distinction entre la vraie victime, toujours innocente et pré-pubère, et la fausse victime, l’adolescente. Contrairement à Vu du ciel, The Lovely Bones d’Alice Sebold met en scène la possibilité d’une communauté politique de filles qui sera en fait limitée par le refus du potentiel lesbien. La question du viol sera ici centrale et sera abordée à partir de l’insistance sur la voix de la narratrice Susan. La littérature devient un espace propice à la survie de la jeune fille, puisqu’elle admet la reprise de l’expérience de la première relation sexuelle. Si la communauté est convoquée dans The Lovely Bones, elle est associée à l’image de l’identité sororale dans le roman Virgin Suicides de Jeffrey Eugenides. La pathologie virale et la beauté virginale que construit le narrateur polyphonique et anonyme font exister le discours médical sur la maladie des vierges dans un contexte contemporain. Le récit médical rejoint alors le récit érotique puisque le narrateur devient médecin, détective et voyeur. À la différence de ces trois récits, Drames de princesses d’Elfriede Jelinek montre une parthénos, Blanche Neige, qui fait face à son agresseur pour s’inscrire dans une historicité discursive. Cette collision dialogique ranime le cycle tragique (celui d’une Antigone confrontant Créon) et traduit de nouveau le danger d’une superstructure sociétale composée d’images et de discours où la fille est construite comme un accessoire pour le plaisir éphémère de l’homme. À l’inverse de l’image de la vierge sacrée et désincarnée que proposent les récits d’Angot, de Sebold, d’Eugenides et de Jelinek, Virginie Despentes offre une autre réflexion dans Apocalypse bébé. Le personnage de Valentine est configuré comme une sœur des parthénoi qui préfère le suicide et la terreur à la domestication, faisant ainsi appel à une temporalité radicale et inachevable, celle de la fin de la jeune fille. Mon souhait est enfin de souligner la nécessité de penser au mérite autant épistémologique, intime que politique, d’explorer le temps des éclosions sexuelles de la fille par delà l’idée de la première relation sexuelle.