905 resultados para Expectation Maximization
Arrestation et placement en détention avant jugement : points de vue et expériences des justiciables
Resumo:
Ce mémoire a comme objectif d’analyser le vécu des justiciables placés en détention avant jugement. Plus précisément, cette étude se veut préciser ce vécu sur les volets judiciaire et carcéral impliqués dans une mise en détention provisoire. Nous voulons de plus dégager les sentiments issus d’un tel placement. Enfin, nous souhaitions réfléchir sur le recours à la détention avant jugement à travers la perspective d’un modèle de justice basé sur la gestion des risques et sur une logique d’efficience, d’efficacité et de responsabilisation. Pour ce faire, nous avons utilisé l’approche qualitative pour mener vingt-trois entrevues auprès d’hommes et de femmes incarcérés en attente de leur jugement dans quatre établissements de détention du Québec. De ces entretiens, deux thèmes centraux sont ressortis, soit le Vécus carcéral et judiciaire du prévenu, marqué par l’incertitude, l’incompréhension, l’impuissance, la dépendance, les conditions difficiles de détention, les pertes ainsi que l’attente et les Sentiments issus d’une mise en détention provisoire, marqué par la souffrance, l’injustice et l’urgence de sortir de cette situation provisoire. Il ressort de nos analyses que la façon dont est administré le système de justice, l’opinion du public ainsi que les politiques en vigueur ont un impact sur la façon de gérer le recours à la détention provisoire en favorisant tout le contraire de sa mission initiale. Ainsi, la mesure s’en trouve conduite au détriment de l’acteur principal : le prévenu.
Resumo:
Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.
Resumo:
Peu différenciées à la naissance, les émotions deviendraient intelligibles en étant élevées à la conscience par le développement d’une sensibilité aux sensations internes accompagnant l’émotion, sa représentation et sa symbolisation (Gergely & Watson, 1996). La théorie du miroir affectif-parental du biofeedback social de Gergely & Watson (1996), poussée plus loin par Fonagy, Gergely, Jurist et Target (2002), explique comment une interaction de biofeedback social complexe, innée, et probablement implicite, s’établit entre parent et nouveau-né pour aider ce dernier à différencier les somatosensations accompagnant l’expérience d’une émotion, au travers d’un comportement parental de miroir. Le but de cette thèse est de réviser cette théorie, et plus particulièrement l’hypothèse du miroir « marqué » (markedness), qui serait nécessaire pour dissocier le miroir parental du parent, et permettre l’appropriation de son contenu informationnel par l’enfant. Ce processus de sensibilisation est conçu comme partie intégrante du travail de symbolisation des émotions chez les enfants autant que chez les adultes. Cependant, le miroir marqué se manifestant par une expression exagérée ou « voix de bébé » (motherese) nécessiterait l’utilisation par le thérapeute d’une « voix de patient » (therapese) (Fonagy, 2010) pour être appliqué à la psychothérapie adulte, une proposition difficile à soutenir. La révision examine comment la sensibilisation d’une émotion est accomplie : par un mécanisme d’internalisation nécessitant un miroir « marqué » ou par un mécanisme de détection de la contingence de l’enfant. Elle démontre que le détecteur de contingence du nouveau-né (d’un fonctionnement semblable au système d’entraînement par biofeedback pour adultes) est le médiateur des fonctions de sensibilisation, de représentation, et de symbolisation de la ii sensation d’une émotion par ses processus de détection de la covariance-invariance, de la maximisation, et du contrôle contingent du miroir parental. Ces processus permettent à l’émotion de devenir consciente, que le miroir parental soit ‘marqué’ ou non. Le modèle révisé devient donc applicable à la thérapie des adultes. Une vignette clinique analysée à l’aide de la perspective du Boston Change Process Study Group sur le changement est utilisée pour contraster et illustrer les processus de sensibilisation et de symbolisation des émotions, et leur application à la psychothérapie adulte. Cette thèse considère les implications cliniques du nouveau modèle, et elle spécule sur les conséquences de difficultés parentales vis-à-vis de la disponibilité requise par les besoins de biofeedback social du nouveau-né, et sur les conséquences de traumatismes déconnectant des émotions déjà sensibilisées de leurs représentations. Finalement, elle suggère que le miroir sensible des émotions en thérapie puisse remédier à ces deux sortes de difficultés, et que le modèle puisse être utilisé concurremment à d’autres modèles du changement, en facilitant la génération d’états internes ressentis et symbolisés pouvant être utilisés pour communiquer avec soi-même et les autres pour la réparation de difficultés émotionnelles et relationnelles chez les enfants et les adultes.
Resumo:
Les diagrammes de transitions d'états ont été réalisés avec le logiciel Latex.
Resumo:
Si la manière de produire une image depuis la reproductibilité technique a toujours été profondément déterminée par la captation d’une réalité physique, le numérique (qui constitue une méthode d’inscription visuelle distincte) devrait, en théorie, modifier la relation du spectateur à ces « nouvelles images ». Toutefois, en pratique, le spectateur fait-il l’expérience des images numériques d’une manière différente de celles issues de la captation? Afin de répondre à cette question, ce mémoire analyse, à l’aide de l’approche sémio-pragmatique, comment le spectateur a conditionné son regard à travers les techniques de la captation (photographie, cinéma et vidéo). Ensuite, cette étude compare les habitudes et les attentes visuelles engendrées par ces techniques aux images numériques. Enfin, cette étude situe le problème de la rupture dans une perspective plus large que celle des techniques afin de poser le questionnement dans toute une tradition de la représentation artistique.
Resumo:
L’historien n’écrit pas de nulle part. Ancré dans son présent et participant à la société, il en épouse – ou critique – les projets, les utopies et les grands récits. Nous proposons dans ce travail d’approfondir cet ancrage à travers une histoire croisée et comparée des expériences du temps de deux historiens français (Michel de Certeau, François Furet) et d’un historien-sociologue québécois (Fernand Dumont). Notre objectif est double : il s’agit d’établir, dans un premier temps, les correspondances entre leurs expériences lors de deux tournants, celui des années 1960 et celui des années 1970. Tout en prenant en compte les contextes des auteurs à l’étude, nous élargirons l’échelle d’analyse afin de cerner la contemporanéité d’expériences du temps qui ne se réduisent pas aux seuls cadres nationaux. Nous pourrons ainsi établir les coordonnées des régimes d’historicité à chaque tournant en contribuant à préciser les différentes combinaisons des modes futuristes et présentistes en jeu. Dans un deuxième temps, nous explorerons les liens entre historiographie et régime d’historicité afin de mettre en évidence les jonctions entre les considérations épistémologiques et l’horizon d’attente des historiens à l’étude. En abordant plus spécifiquement la question du rôle de l’historien dans sa société, nous jaugeons les transformations parallèles de son expérience du temps et de ses pratiques historiographiques. Le passage de l’expérience d’une Histoire en marche au tournant de 1960 à celle d’une histoire bloquée au tournant de 1970 affecte considérablement la place et le statut de l’historien. D’éminent passeur du temps à l’écoute du sens du progrès, l’historien voit son statut contesté et marginalisé, ce qui ne veut pas dire que son rôle est moins important. Qu’il débusque des alternatives passées ou court-circuite des téléologies, il est chargé de maintenir coûte que coûte ouverts les horizons du temps. Nous verrons spécifiquement le sens que prenait cette tâche à un moment où la possibilité d’une « société nouvelle », après Mai 68, pointait à l’horizon des contemporains.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
Refus global, le recueil, n’est pas « Refus global », le texte rédigé par Paul-Émile Borduas et cosigné par 15 membres du groupe automatiste. Partant de cette distinction entre le recueil automatiste et son texte éponyme et du constat selon lequel la partie éclipse le tout dans le discours critique, cette thèse a pour objectif d’expliquer l’occultation du recueil dans l’histoire sociale et artistique québécoise. À partir de l’étude de la réception de 1948 à 2008, j’interroge la constitution du récit commun entourant l’œuvre, duquel le recueil est exclu. Il s’agit donc de mettre au jour les obstacles qui se sont présentés dans le parcours de réception du recueil, nuisant à la formation d’un discours unifié et cohérent à son sujet et l’empêchant de s’inscrire dans l’histoire. Dégagés de l’étude du corpus composé de 639 objets sémiotiques secondaires (OSS, selon le concept proposé par Brigitte Louichon), les obstacles à la réception du recueil relèvent à la fois de facteurs pragmatiques, telles la composition hétérogène de l’œuvre ou sa disponibilité; de facteurs institutionnels ou historiographiques, comme la disciplinarisation du champ culturel ou l’impact du récit de la Révolution tranquille sur l’histoire littéraire; et de facteurs humains, reposant sur le rôle des auteurs et de certains critiques dans l’accueil réservé à l’œuvre. Les différentes étapes de la réception sont ainsi considérées : de l’horizon d’attente (Jauss) à la réception productive (Link), en passant par la publication, les premières critiques, les rééditions, les lectures savantes, l’historicisation et l’entrée de l’œuvre dans la mémoire à titre de symbole ou d’hypotexte. Or, plutôt qu’à ce parcours de réception exemplaire, c’est son envers qui est interrogé ici, c’est-à-dire les difficultés et les déviations de la réception du recueil Refus global. Cette thèse est divisée en trois parties. La première, théorique et méthodologique, situe mon propos dans les domaines de l’histoire culturelle et des études de réception, et présente diverses considérations concernant la constitution du corpus et le traitement des données. La deuxième aborde l’horizon d’attente et la première réception, moment crucial pour la survie de l’œuvre, comme l’ont montré Hans Robert Jauss et Daniel Chartier. On y observe notamment l’effet de verrou (Cambron) qu’a le renvoi de Borduas sur la constitution du récit de réception, de même que les critères éthiques et esthétiques en fonction desquels s’est opérée la hiérarchisation des composantes du recueil. La troisième partie couvre la réception subséquente (1950-2008). À l’étude des obstacles empêchant l’intégration du recueil dans l’histoire s’ajoute alors l’étude des réceptions parallèles, parcellaires et autonomes dont a bénéficié Refus global pour survivre – ponctuellement et partiellement – en dehors du récit commun formé autour de « Refus global ». Avec les différentes catégories d’OSS (directs, indirects, hypertextuels, métacritiques et parcellaires), ces trois types de réception font partie des outils heuristiques développés dans le but d’expliquer la réception partielle dont a fait l’objet le recueil. Selon l’approche quantitative et environnementaliste de l’histoire culturelle, Refus global est envisagé comme un microcosme de la culture, dans lequel certaines œuvres sont retenues et d’autres négligées. L’analyse d’un corpus critique large et varié permet ainsi de saisir non seulement les phénomènes conduisant à la consécration du texte éponyme ou à l’oubli relatif du recueil, mais aussi les tendances critiques, les parutions marginales, les critiques isolées, etc. qui, enfouies dans les angles morts de la réception, offrent au recueil et à ses composantes des voies de contournement du discours dominant. En somme, l’étude de la réception du recueil Refus global a permis à la fois de déplacer la focalisation critique depuis « Refus global » vers Refus global, de développer des outils pour envisager la réception d’œuvres marginalisées et de mettre en évidence des critères privilégiés dans la constitution de l’histoire et de la mémoire culturelles québécoises depuis 1948.
Resumo:
Ce mémoire étudie les rapports texte/image dans Vues et visions de Claude Cahun, première œuvre composite créée en collaboration avec la peintre graphiste Marcel Moore. L’objet littéraire protéiforme, appartenant au genre de l’iconotexte (Alain Montandon), instaure un dialogue intermédial entre le textuel et le visuel au point de déconstruire l’horizon d’attente du lecteur : celui-ci est incité à lire et à voir alternativement les poèmes en prose ainsi que les dessins de sorte que les frontières qui définissent l’espace du littéral et du figural apparaissent poreuses. Subdivisé en deux chapitres, notre travail s’attachera dans un premier temps à mettre en lumière le rôle de l’écriture qui intègre certains dessins de Moore. En nous inspirant de l’iconolecture (Emmanuelle Pelard), nous tenterons d’effectuer des liens entre la plasticité et la signification littérale des signes linguistiques qu’illustrent ces images-textes tout en étudiant les correspondances thématiques et formelles qu’elles entretiennent avec les poèmes de Cahun. Le second chapitre étudiera la manière dont le figural investit le texte littéraire en adoptant une approche intermédiale. Après avoir abordé la figure du double, une partie de l’analyse sera consacrée à la figure de l’allusion, une stratégie d’écriture pour introduire le visuel au sein du textuel, ce qui nous permettra d’entrer en matière pour étudier « l’image-en-texte » (Liliane Louvel). Enfin, l’effet-tableau ainsi que l’anamorphose seront employés comme cadre d’analyse afin de penser le dialogue qui se noue entre le pictural et le texte littéraire dans Vues et visions.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
La gouvernance des sociétés par actions canadiennes accorde une place aux créanciers, qui contribuent considérablement à leur financement. Les créanciers fournissent une prestation en échange d’une promesse d’être payé plus tard, de sorte qu’ils sont en conflit d’agence avec d’autres parties prenantes de la société par actions, particulièrement les dirigeants. Principale voie procédurale des litiges en droit des sociétés, le recours en cas d’abus (ou « recours en oppression ») permet d’endiguer certains aspects de ce conflit d’agence en octroyant aux tribunaux de larges pouvoirs pour pallier les abus. Cette intervention judiciaire s’exprime par la théorie des attentes raisonnables, selon laquelle le tribunal doit protéger non seulement les droits des parties, mais également leurs attentes raisonnables. La jurisprudence permet de conclure à des attentes raisonnables relativement à l’information fournie par la société, au patrimoine social et au processus décisionnel des dirigeants. Elle laisse également entrevoir une attente raisonnable à l’égard des modifications du partage des risques découlant d’un événement imprévisible.
Resumo:
Cette thèse trace la généalogie culturelle de la jeune fille en Occident en ciblant les moments charnières de son devenir femme au sein de structures de savoir qui ont activement participé à forger cette figure hétéronormative. Mon objectif est de produire une analyse culturelle en forgeant une cartographie des adolescences au féminin. Afin de sortir de la temporalité téléologique de la virginité et de la défloration, j’emprunte un mot étranger, parthénos, qui fait appel à l’idée de la jeune fille, sans nécessairement se limiter à ses connotations conventionnelles. La première partie, intitulée « La virginité, une affaire de jeunes filles », laisse place à une analyse du concept de parthénos à partir d’une lecture au carrefour de la médecine, de la loi et du mythe. Une lecture du traité hippocratique De la maladie des jeunes filles dévoile comment la défloration et la grossesse deviennent une cure érotique, une discipline du corps, qui décide du passage de la jeune fille dans une temporalité utile à la Cité. Un déplacement paradigmatique s’opère au 19e siècle dans les écrits médico-légaux, parce que l’hymen, auparavant inexistant dans la doxa hippocratique, devient le signe matériel par excellence pour examiner le statut de virginité de la fille. L’analyse de ces traités (frères Beck, Ambroise Tardieu, Paulier et Hétet) révèle la configuration de pratiques et de discours d’infantilisation des victimes de viol, et le refus des médecins légistes de reconnaître qu’une femme mariée puisse être violée. À partir d’une lecture contemporaine des tragédies L’Orestie d’Eschyle et Antigone de Sophocle, je montre que les figures d’Antigone et d’Électre constituent des exemples et des symboles convaincants de ce destin funeste de la parthénos qui n’accède jamais au statut de femme mariée. À ces figures mortelles, se télescopent les figures d’Artémis et des Érinyes pour montrer le potentiel de régénération inhérent à la figure de la parthénos. La deuxième partie, qui porte le titre « Le liminaire. Repenser les devenirs de l’adolescence », engage une réflexion à la lisière du contexte contemporain des Girlhood Studies, de la psychanalyse sociale et des études féministes sur le corps et le sexe, pour faciliter le déploiement d’une cartographie plus contextualisée du concept de parthénos. Je montre ici les écueils et les effets du danger qu’engendre la rationalité économique (cf. Henry A. Giroux) pour les espaces de liberté et d’exploration propres à l’adolescence. Cette posture est appuyée sur une lecture des récentes études en psychanalyse sociale (Anne Bourgain, Olivier Douville et Edmond Ortigues). Il est ainsi question d’identifier ce qui marque le passage entre l’adolescence et l’âge adulte : la crainte de la disparition et le fantasme de la naissance de soi. La théorie de la volatilité corporelle qu’élabore Elizabeth Grosz à propos de la sexualité féminine, ainsi que les théories de Michel Foucault, reprises par Judith Butler, en ce qui concerne les disciplines du corps, répondent à mon objectif de sortir de l’écueil d’une temporalité téléologique pour saisir les effets et les ramifications du discours sur la matérialité du corps de la jeune fille, sur ce qui lui arrive lorsqu’elle ne correspond pas tout à fait à l’idéal de régulation. Enfin, la dernière partie, qui porte le titre « Temporalités de la parthénos en tant que sujet liminaire », est traversée par les modalités particulières de la parthénia qui semble désincarnée dans la littérature contemporaine. L’objectif est de prouver que la virginité est toujours un marqueur symbolique qui déploie le destin de la fille dans un horizon particulier, trop souvent celui de la disparition. En proposant un éventail de cinq textes littéraires que j’inscris au sein d’une posture généalogique, je souhaite voir dans la littérature contemporaine, une volonté, parfois aussi un échec, dans cette pensée de la parthénos en tant que sujet liminaire. Le récit Vu du ciel de Christine Angot montre que l’ascension vers le statut d’ange concerne seulement les victimes enfants. Le récit d’Angot met donc en lumière la distinction entre la vraie victime, toujours innocente et pré-pubère, et la fausse victime, l’adolescente. Contrairement à Vu du ciel, The Lovely Bones d’Alice Sebold met en scène la possibilité d’une communauté politique de filles qui sera en fait limitée par le refus du potentiel lesbien. La question du viol sera ici centrale et sera abordée à partir de l’insistance sur la voix de la narratrice Susan. La littérature devient un espace propice à la survie de la jeune fille, puisqu’elle admet la reprise de l’expérience de la première relation sexuelle. Si la communauté est convoquée dans The Lovely Bones, elle est associée à l’image de l’identité sororale dans le roman Virgin Suicides de Jeffrey Eugenides. La pathologie virale et la beauté virginale que construit le narrateur polyphonique et anonyme font exister le discours médical sur la maladie des vierges dans un contexte contemporain. Le récit médical rejoint alors le récit érotique puisque le narrateur devient médecin, détective et voyeur. À la différence de ces trois récits, Drames de princesses d’Elfriede Jelinek montre une parthénos, Blanche Neige, qui fait face à son agresseur pour s’inscrire dans une historicité discursive. Cette collision dialogique ranime le cycle tragique (celui d’une Antigone confrontant Créon) et traduit de nouveau le danger d’une superstructure sociétale composée d’images et de discours où la fille est construite comme un accessoire pour le plaisir éphémère de l’homme. À l’inverse de l’image de la vierge sacrée et désincarnée que proposent les récits d’Angot, de Sebold, d’Eugenides et de Jelinek, Virginie Despentes offre une autre réflexion dans Apocalypse bébé. Le personnage de Valentine est configuré comme une sœur des parthénoi qui préfère le suicide et la terreur à la domestication, faisant ainsi appel à une temporalité radicale et inachevable, celle de la fin de la jeune fille. Mon souhait est enfin de souligner la nécessité de penser au mérite autant épistémologique, intime que politique, d’explorer le temps des éclosions sexuelles de la fille par delà l’idée de la première relation sexuelle.
Resumo:
This thesis has discussed the development of a new metal ion doped panchromatic photopolymer for various holographic applications. High-quality panchromatic holographic recording material with high diffraction efficiency, high photosensitivity and high spatial resolution is one of the key factors for the successful recording of true colour holograms. The capability of the developed material for multicolour holography can be investigated.In the present work, multiplexing studies were carried out using He-Ne laser (632.8 nm). Multiplexing can be done using low wavelength lasers like Ar+ ion (488 nm) and frequency doubled Nd: YAG (532 nm) lasers, so as to increase the storage capacity. The photopolymer film studied had a thickness of only 130 Cm. Films with high thickness (~500 Cm) is highly essential for competitive holographic memories . Hence films with high thickness can be fabricated and efforts can be made to record more holograms or gratings in the material.In the present study, attempts were made to record data page in silver doped MBPVA/AA photopolymer film. Image of a checkerboard pattern was recorded in the film, which could be reconstructed with good image fidelity. Efforts can be made to determine the bit error rate (BER) which provides a quantitative measure of the image quality of the reconstructed image . Multiple holographic data pages can also be recorded in the material making use of different multiplexing techniques.Holographic optical elements (HOEs) are widely used in optical sensors, optical information processing, fibre optics, optical scanners and solar concentrators . The suitability of the developed film for recording holographic optical elements like lenses, beam splitters and filters can be studied.The suitability of a reflection hologram recorded in acrylamide based photopolymer for visual indication of environmental humidity is reported . Studies can be done to optimize the film composition for recording of reflection holograms.An improvement in the spatial resolution of PVA/acrylamide based photopolymer by using a low molecular-weight poly (vinyl alcohol) binder was recently reported . Effect of the molecular weight of the binder matrix on the holographic properties of the developed photopolymer system can be investigated.Incorporation of nanoparticles into photopolymer system is reported to enhance the resolution and improve the dimensional stability of the system . Hence efforts can be made to incorporate silver nanoparticles into the photopolymer and its influence on the holographic properties can be studied.This thesis was a small venture towards the realization of a big goal, a competent holographic recording material with excellent properties for practical holographic applications. As a result of the present research, we could successfully develop an efficient panchromatic photopolymer system and could demonstrate its suitability for recording transmission holograms and holographic data page. The developed photopolymer system is expected to have significant applications in the fields of true-color display holography, wavelength multiplexing holographic storage, and holographic optical elements. Highly concentrated and determined effort has yet to be put forth for this expectation to become a reality.
Resumo:
Pulsed photoacoustic studies in solutions of C70 in toluene are made using the 532-nm radiation from a frequency-doubled Nd:YAG laser. It is found that contrary to expectation, there is no photoacoustic (PA) signal enhancement in the power-limiting range of laser fluences. Instead, the PA signal tends to saturate during optical power-limiting phenomenon. This could be due to the enhanced optical absorption from the photoexcited state and hence the depletion of the ground-state population. PA measurements also ruled out the possibility of multiphoton absorption in the C70 solution. We demonstrate that the nonlinear absorption leading to optical limiting is mainly due to reverse saturable absorption.
Resumo:
Information and communication technologies are the tools that underpin the emerging “Knowledge Society”. Exchange of information or knowledge between people and through networks of people has always taken place. But the ICT has radically changed the magnitude of this exchange, and thus factors such as timeliness of information and information dissemination patterns have become more important than ever.Since information and knowledge are so vital for the all round human development, libraries and institutions that manage these resources are indeed invaluable. So, the Library and Information Centres have a key role in the acquisition, processing, preservation and dissemination of information and knowledge. ln the modern context, library is providing service based on different types of documents such as manuscripts, printed, digital, etc. At the same time, acquisition, access, process, service etc. of these resources have become complicated now than ever before. The lCT made instrumental to extend libraries beyond the physical walls of a building and providing assistance in navigating and analyzing tremendous amounts of knowledge with a variety of digital tools. Thus, modern libraries are increasingly being re-defined as places to get unrestricted access to information in many formats and from many sources.The research was conducted in the university libraries in Kerala State, India. lt was identified that even though the information resources are flooding world over and several technologies have emerged to manage the situation for providing effective services to its clientele, most of the university libraries in Kerala were unable to exploit these technologies at maximum level. Though the libraries have automated many of their functions, wide gap prevails between the possible services and provided services. There are many good examples world over in the application of lCTs in libraries for the maximization of services and many such libraries have adopted the principles of reengineering and re-defining as a management strategy. Hence this study was targeted to look into how effectively adopted the modern lCTs in our libraries for maximizing the efficiency of operations and services and whether the principles of re-engineering and- redefining can be applied towards this.Data‘ was collected from library users, viz; student as well as faculty users; library ,professionals and university librarians, using structured questionnaires. This has been .supplemented by-observation of working of the libraries, discussions and interviews with the different types of users and staff, review of literature, etc. Personal observation of the organization set up, management practices, functions, facilities, resources, utilization of information resources and facilities by the users, etc. of the university libraries in Kerala have been made. Statistical techniques like percentage, mean, weighted mean, standard deviation, correlation, trend analysis, etc. have been used to analyse data.All the libraries could exploit only a very few possibilities of modern lCTs and hence they could not achieve effective Universal Bibliographic Control and desired efficiency and effectiveness in services. Because of this, the users as well as professionals are dissatisfied. Functional effectiveness in acquisition, access and process of information resources in various formats, development and maintenance of OPAC and WebOPAC, digital document delivery to remote users, Web based clearing of library counter services and resources, development of full-text databases, digital libraries and institutional repositories, consortia based operations for e-journals and databases, user education and information literacy, professional development with stress on lCTs, network administration and website maintenance, marketing of information, etc. are major areas need special attention to improve the situation. Finance, knowledge level on ICTs among library staff, professional dynamism and leadership, vision and support of the administrators and policy makers, prevailing educational set up and social environment in the state, etc. are some of the major hurdles in reaping the maximum possibilities of lCTs by the university libraries in Kerala. The principles of Business Process Re-engineering are found suitable to effectively apply to re-structure and redefine the operations and service system of the libraries. Most of the conventional departments or divisions prevailing in the university libraries were functioning as watertight compartments and their existing management system was more rigid to adopt the principles of change management. Hence, a thorough re-structuring of the divisions was indicated. Consortia based activities and pooling and sharing of information resources was advocated to meet the varied needs of the users in the main campuses and off campuses of the universities, affiliated colleges and remote stations. A uniform staff policy similar to that prevailing in CSIR, DRDO, ISRO, etc. has been proposed by the study not only in the university libraries in kerala but for the entire country.Restructuring of Lis education,integrated and Planned development of school,college,research and public library systems,etc.were also justified for reaping maximum benefits of the modern ICTs.