746 resultados para Commande optimale linéaire-quadratique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo pretende demostrar en qué medida Paseo por una guerra antigua (1948-1949), la práctica de segundo curso del Instituto de Investigaciones y Experiencias Cinematográficas (IIEC) en la que Juan Antonio Bardem rueda a un joven mutilado caminando por las ruinas de la Ciudad Universitaria de Madrid, constituye un intento pionero de desmontar los relatos oficiales de la Guerra Civil Española y rescatar la memoria de los vencidos. Filmar las ruinas del campus madrileño en aquellos años era un acto sub­versivo, puesto que el Régimen había emprendido su reconstrucción para borrar las huellas del Madrid republicano y de la Guerra Civil, resignificando por completo el recinto universitario. Por tanto, en Paseo por una guerra antigua, Bardem intenta reapropiarse de un espacio que en la época iba imponiéndose como uno de los “lugares de memoria” del franquismo. Esta película se vale de la función documental del cine para inmortalizar unas ruinas que simbolizan la República y la guerra, para preservarlas de la muerte simbólica que representa su reconstrucción. Mostrar esas ruinas en 1948-1949 equivale a “materializar” el pasado, a traerlo al presente de la posguerra, en un proceso que recuerda a los planteamientos sobre la Historia de Walter Benjamin, para proponer una visión alternativa de la contienda. Se trata de una visión teñida de una memoria íntima, ya que la película es un paseo no solo por las ruinas sino también por los recuerdos de este joven mutilado. En suma, Bardem propone una contramemoria de la Guerra Civil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De Hoofdvraag van dit onderzoek is: Is er een relatie tussen de lever of control Interactive control en het vervullen van de controllerrol business partner? Dit onderzoek is gebaseerd op de dataset verkregen uit de controllerenquête 2013, uitgevoerd in opdracht van de Open Universiteit (Bork & van der Wal, 2014). Vanuit het literatuuronderzoek is het duidelijk: de rol business partner is een zeer gewenste rol voor controllers. Daarnaast is er in de literatuur een verband te vinden tussen de rol business partner en de lever of control Interactive control. De factor- en clusteranalyse zoals beschreven door Bork & van der Wal (2014), resulteerde in de identificatie van twee type controllers. In dit uitgebreide onderzoek is TYPE II geïdentificeerd als business partner, omdat hij/zij activiteitencombinaties uitvoert die gerelateerd zijn aan strategie, analyseren, het management ondersteunen in besluitvorming, advisering, change management en de organisatie vertegenwoordigen. 36% van de populatie van aan Nederlandse Universiteiten afgestudeerde controllers die ook werkzaam zijn als controller vervullen een rol grotendeels gelijk aan de rol business partner. De vervulling van de rol (TYPE II) is niet puur business partner. Vervaardigen en organiseren van rapportagestromen zijn ook activiteiten die uitgevoerd worden door TYPE II. Daarnaast voert TYPE I activiteiten als change en risk management uit, volgens de definitie zou de business partner deze activiteiten uit moeten voeren. De rol business partner wordt uitgevoerd, maar nog niet in de optimale vorm zoals aangegeven in de theorie. De logistische regressieanalyse op de dataset laat zien dat geen van de levers of control een significante trigger is voor het uitvoeren van een van de twee types controllerrollen (Bork & van der Wal, 2014). Dit verdiepende onderzoek concentreert zich op de relatie tussen de lever of control Interactive control en de zes activiteitencombinaties (factoren) in plaats van de twee clusters (TYPE I & II). De statistische analyses bevestigen de uitkomsten het onderzoek van Bork & van der Wal (2014). Er is geen significantie tussen Interactive control en de factoren die behoren bij de business partner rol. De hoofdvraag moet ontkennend beantwoord worden, er is geen relatie tussen de lever of control Interactive control en de controllerrol business partner. Een paar beperkingen van het onderzoek richten zich op de vragenlijst over de levers of control: is het de juiste vragenlijst voor dit onderzoek en meet deze vragenlijst de levers of control van controllers? Vervolg onderzoek kan zich richten op bovenstaande beperking. Daarnaast zijn er uit het onderzoek van Bork & van der Wal (2014) triggers naar voren gekomen die verder onderzocht kunnen worden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Optimal assistance of an adult, adapted to the current level of understanding of the student (scaffolding), can help students with emotional and behavioural problems (EBD) to demonstrate a similar level of understanding on scientific tasks, compared to students from regular education (Van Der Steen, Steenbeek, Wielinski & Van Geert, 2012). In the present study the optimal scaffolding techniques for EBD students were investigated, as well as how these differ from scaffolding techniques used for regular students. A researcher visited five EBD students and five regular students (aged three to six years old) three times in a 1,5 years period. Student and researcher worked together on scientific tasks about gravity and air pressure, while the researcher asked questions. An adaptive protocol was used, so that all children were asked the same basic questions about the mechanisms of the task. Beside this, the researcher was also allowed to ask follow-up questions and use scaffolding methods when these seemed necessary. We found a bigger amount of scaffolding in the group of EBD students compared to the regular students. The scaffolding techniques that were used also differed between the two groups. For EBD students, we saw more scaffolding strategies focused on keeping the student committed to the task, and less strategies aimed at the relationship between the child and the researcher. Furthermore, in the group of regular students we saw a decreasing trend in the amount of scaffolding over the course of three visits. This trend was not visible for the EBD students. These results highlight the importance for using different scaffolding strategies when working with EBD students compared to regular students. Future research can give a clearer image of the differences in scaffolding needs between these two groups.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The lack of flexibility in logistic systems currently on the market leads to the development of new innovative transportation systems. In order to find the optimal configuration of such a system depending on the current goal functions, for example minimization of transport times and maximization of the throughput, various mathematical methods of multi-criteria optimization are applicable. In this work, the concept of a complex transportation system is presented. Furthermore, the question of finding the optimal configuration of such a system through mathematical methods of optimization is considered.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wir betrachten zeitabhängige Konvektions-Diffusions-Reaktions-Gleichungen in zeitabhängi- gen Gebieten, wobei die Bewegung des Gebietsrandes bekannt ist. Die zeitliche Entwicklung des Gebietes wird durch die ALE-Formulierung behandelt, die die Nachteile der klassischen Euler- und Lagrange-Betrachtungsweisen behebt. Die Position des Randes und seine Geschwindigkeit werden dabei so in das Gebietsinnere fortgesetzt, dass starke Gitterdeformationen verhindert werden. Als Zeitdiskretisierungen höherer Ordnung werden stetige Galerkin-Petrov-Verfahren (cGP) und unstetige Galerkin-Verfahren (dG) auf Probleme in zeitabhängigen Gebieten angewendet. Weiterhin werden das C 1 -stetige Galerkin-Petrov-Verfahren und das C 0 -stetige Galerkin- Verfahren vorgestellt. Deren Lösungen lassen sich auch in zeitabhängigen Gebieten durch ein einfaches einheitliches Postprocessing aus der Lösung des cGP-Problems bzw. dG-Problems erhalten. Für Problemstellungen in festen Gebieten und mit zeitlich konstanten Konvektions- und Reaktionstermen werden Stabilitätsresultate sowie optimale Fehlerabschätzungen für die nachbereiteten Lösungen der cGP-Verfahren und der dG-Verfahren angegeben. Für zeitabhängige Konvektions-Diffusions-Reaktions-Gleichungen in zeitabhängigen Gebieten präsentieren wir konservative und nicht-konservative Formulierungen, wobei eine besondere Aufmerksamkeit der Behandlung der Zeitableitung und der Gittergeschwindigkeit gilt. Stabilität und optimale Fehlerschätzungen für die in der Zeit semi-diskretisierten konservativen und nicht-konservativen Formulierungen werden vorgestellt. Abschließend wird das volldiskretisierte Problem betrachtet, wobei eine Finite-Elemente-Methode zur Ortsdiskretisierung der Konvektions-Diffusions-Reaktions-Gleichungen in zeitabhängigen Gebieten im ALE-Rahmen einbezogen wurde. Darüber hinaus wird eine lokale Projektionsstabilisierung (LPS) eingesetzt, um der Konvektionsdominanz Rechnung zu tragen. Weiterhin wird numerisch untersucht, wie sich die Approximation der Gebietsgeschwindigkeit auf die Genauigkeit der Zeitdiskretisierungsverfahren auswirkt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zunehmende Luftverschmutzung aufgrund des steigenden Energiebedarfs und Mobilitätsanspruchs der Bevölkerung, insbesondere in urbanen Gebieten, erhöht das Gefährdungspotential für die Gesundheit und verschlechtert so die Lebensqualität. Neben der Vermeidung von Emissionen toxischer Gase als mittel- und langfristig optimale Maßnahme zur Verbesserung der Luftqualität, stellt der Abbau emittierter Luftschadstoffe ein geeignetes und kurzfristig wirksames Mittel dar. Ein solcher Abbau kann durch Photokatalyse erzielt werden, allerdings nutzen Photokatalysatoren, die auf dem Halbleiter Titandioxid (TiO2) basieren, das solare Emissionsspektrum nur geringfüfig aus und sind in Innenräumen und anderen UV-schwachen Bereichen nicht wirksam. Um diese Nachteile zu überwinden, wurde ein Photokatalysator entwickelt und hergestellt, der aus TiO2 (P25) als UV-aktiver Photokatalysator und als Trägermaterial sowie einem seinerseits im Vis-Bereich photoaktiven Porphyrazin-Farbstoff als Beschichtung besteht. Die sterisch anspruchsvollen und in der Peripherie mit acht Bindungsmotiven für TiO2 versehenen Farbstoffmoleküle wurden zu diesem Zweck auf der Halbleiteroberfläche immobilisiert. Die so gebildeten Porphyrazin-Titandioxid-Hybride wurde ausführlich charakterisiert. Dabei wurden unter anderem die Bindung der Farbstoffe auf der Titandioxidoberfläche mittels Adsorptionsisothermen und die UV/Vis-spektroskopischen Eigenschaften des Hybridmaterials untersucht. Zur Bestimmung der photokatalytischen Aktivitäten der Einzelkomponenten und des Hybridmaterials wurden diese auf die Fähigkeit zur Bildung von Singulett-Sauerstoff, Wasserstoffperoxid und Hydroxylradikalen hin sowie in einem an die ISO-22197-1 angelehnten Verfahren auf die Fähigkeit zum Abbau von NO hin jeweils bei Bestrahlung in drei Wellenlängenbereichen (UV-Strahlung, blaues Licht und rotes Licht) geprüft. Darüber hinaus konnte die Aktivität des Hybridmaterials bei der Photodynamischen Inaktivierung (PDI) von Bakterien unter UV- und Rotlichtbestrahlung im Vergleich zum reinen Ttandioxid bestimmt werden. Die Charakterisierung des Hybridmaterials ergab, dass die Farbstoffmoleküle in einer neutralen Suspension nahezu irreversibel in einer monomolekularen Schicht mit einer Bindungsenergie von -41.43 kJ/mol an die Oberfläche gebunden sind und das Hybridmaterial mit hohen Extinktionskoeffizienten von bis zu 105 M-1cm-1 in großen Bereichen des UV/Vis-Spektrums Photonen absorbiert. Das Spektrum des Hybridmaterials setzt sich dabei additiv aus den beiden Einzelspektren zusammen. Die Auswirkungen der Charakterisierungsergebnisse auf die Bildung reaktiver Sauerstoffspezies wurden ausführlich diskutiert. Der Vergleich der Aktivitäten in Bezug auf die Bildung der reaktiven Sauerstoffspezies zeigte, dass die Aktivität des Hybridmaterials bis auf die bei der Bildung von Hydroxylradikalen unter UV-Bestrahlung in allen Versuchen deutlich höher war als die Aktivität des reinen Titandioxids. Im Gegensatz zu reinem Titandioxid erzeugte das Hybridmaterial in allen untersuchten Wellenlängenbereichen Mengen an Singulett-Sauerstoff, die photophysikalisch eindeutig detektierbar waren. Zur Erklärung und Deutung dieser Beobachtungen wurde eine differenzierte Diskussion geführt, die die Ergebnisse der Hybridpartikelcharakterisierung aufgreift und implementiert. Der Vergleich der NO-Abbaueffizienzen ergab bei allen Experimenten durchgängig deutlich höhere Werte für das Hybridmaterial. Zudem wurden durch das Hybridmaterial nachgewiesenermaßen wesentlich geringere Mengen des unerwünschten Nebenprodukts des Abbaus (NO2) gebildet. Im Zuge der Diskussion wurden verschiedene mögliche Mechanismen der „sauberen“ Oxidation zu Nitrat durch das Hybridmaterial vorgestellt. Untersuchungen zur Photodynamischen Inaktivierung verschiedener Bakterien ergaben, dass das Hybridmaterial neben einer zu P25 ähnlichen Aktivität unter UV-Bestrahlung, anders als P25, auch eine PDI verschiedener Bakterien unter Rotlichtbestrahlung erreicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Fähigkeit, geschriebene Texte zu verstehen, d.h. eine kohärente mentale Repräsentation von Textinhalten zu erstellen, ist eine notwendige Voraussetzung für eine erfolgreiche schulische und außerschulische Entwicklung. Es ist daher ein zentrales Anliegen des Bildungssystems Leseschwierigkeiten frühzeitig zu diagnostizieren und mithilfe zielgerichteter Interventionsprogramme zu fördern. Dies erfordert ein umfassendes Wissen über die kognitiven Teilprozesse, die dem Leseverstehen zugrunde liegen, ihre Zusammenhänge und ihre Entwicklung. Die vorliegende Dissertation soll zu einem umfassenden Verständnis über das Leseverstehen beitragen, indem sie eine Auswahl offener Fragestellungen experimentell untersucht. Studie 1 untersucht inwieweit phonologische Rekodier- und orthographische Dekodierfertigkeiten zum Satz- und Textverstehen beitragen und wie sich beide Fertigkeiten bei deutschen Grundschüler(inne)n von der 2. bis zur 4. Klasse entwickeln. Die Ergebnisse legen nahe, dass beide Fertigkeiten signifikante und eigenständige Beiträge zum Leseverstehen leisten und dass sich ihr relativer Beitrag über die Klassenstufen hinweg nicht verändert. Darüber hinaus zeigt sich, dass bereits deutsche Zweitklässler(innen) den Großteil geschriebener Wörter in altersgerechten Texten über orthographische Vergleichsprozesse erkennen. Nichtsdestotrotz nutzen deutsche Grundschulkinder offenbar kontinuierlich phonologische Informationen, um die visuelle Worterkennung zu optimieren. Studie 2 erweitert die bisherige empirische Forschung zu einem der bekanntesten Modelle des Leseverstehens—der Simple View of Reading (SVR, Gough & Tunmer, 1986). Die Studie überprüft die SVR (Reading comprehension = Decoding x Comprehension) mithilfe optimierter und methodisch stringenter Maße der Modellkonstituenten und überprüft ihre Generalisierbarkeit für deutsche Dritt- und Viertklässler(innen). Studie 2 zeigt, dass die SVR einer methodisch stringenten Überprüfung nicht standhält und nicht ohne Weiteres auf deutsche Dritt- und Viertklässler(innen) generalisiert werden kann. Es wurden nur schwache Belege für eine multiplikative Verknüpfung von Dekodier- (D) und Hörverstehensfertigkeiten (C) gefunden. Der Umstand, dass ein beachtlicher Teil der Varianz im Leseverstehen (R) nicht durch D und C aufgeklärt werden konnte, deutet darauf hin, dass das Modell nicht vollständig ist und ggf. durch weitere Komponenten ergänzt werden muss. Studie 3 untersucht die Verarbeitung positiv-kausaler und negativ-kausaler Kohärenzrelationen bei deutschen Erst- bis Viertklässler(inne)n und Erwachsenen im Lese- und Hörverstehen. In Übereinstimmung mit dem Cumulative Cognitive Complexity-Ansatz (Evers-Vermeul & Sanders, 2009; Spooren & Sanders, 2008) zeigt Studie 3, dass die Verarbeitung negativ-kausaler Kohärenzrelationen und Konnektoren kognitiv aufwändiger ist als die Verarbeitung positiv-kausaler Relationen. Darüber hinaus entwickelt sich das Verstehen beider Kohärenzrelationen noch über die Grundschulzeit hinweg und ist für negativ-kausale Relationen am Ende der vierten Klasse noch nicht abgeschlossen. Studie 4 zeigt und diskutiert die Nützlichkeit prozess-orientierter Lesetests wie ProDi- L (Richter et al., in press), die individuelle Unterschiede in den kognitiven Teilfertigkeiten des Leseverstehens selektiv erfassen. Hierzu wird exemplarisch die Konstruktvalidität des ProDi-L-Subtests ‚Syntaktische Integration’ nachgewiesen. Mittels explanatorischer Item- Repsonse-Modelle wird gezeigt, dass der Test Fertigkeiten syntaktischer Integration separat erfasst und Kinder mit defizitären syntaktischen Fertigkeiten identifizieren kann. Die berichteten Befunde tragen zu einem umfassenden Verständnis der kognitiven Teilfertigkeiten des Leseverstehens bei, das für eine optimale Gestaltung des Leseunterrichts, für das Erstellen von Lernmaterialien, Leseinstruktionen und Lehrbüchern unerlässlich ist. Darüber hinaus stellt es die Grundlage für eine sinnvolle Diagnose individueller Leseschwierigkeiten und für die Konzeption adaptiver und zielgerichteter Interventionsprogramme zur Förderung des Leseverstehens bei schwachen Leser(inne)n dar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’adversité tôt dans la vie est associée au développement de symptômes anxieux pouvant perdurer jusqu’à l’âge adulte (Casey et el, 2010, Pine 2003). Des études chez l’adulte suggèrent que ces liens pourraient être associés à des altérations du « circuit de la peur » qui inclut l’amygdale, l’hippocampe antérieur, l’insula et le cortex préfrontal (Marek, 2013, Etkin & Wager, 2007). Ceci a cependant peu été étudié chez les jeunes. L’objectif principal de cette thèse était de définir les corrélats comportementaux, physiologiques, biologiques et neuronaux du traitement de la peur chez les jeunes en bonne santé, en lien ou non avec un historique d’adversité -- sous la forme de pratiques parentales coercitives -- et d’anxiété. D’abord, puisque nous nous intéressions aux pratiques parentales coercitives chroniques, nous avons examiné leur évolution et facteurs de risque, en nous concentrant sur la période de 17 à 72 mois. Un total de 2045 dyades mère-enfant ont été incluses dans une analyse de courbe de croissance latente. Nous avons démontré que la coercition maternelle suit une évolution non linéaire durant cette période et atteint un sommet à 42 mois. Les facteurs de risque relatifs à l’enfant et à la mère, mesurés à 17 mois, permettent de prédire les niveaux de coercition à 42 mois. Finalement, les prédicteurs relatifs à l’enfant et l’efficacité maternelle prédisent l’évolution des pratiques parentales coercitives entre 17 et 72 mois. Ensuite, afin de définir une méthodologie solide pour étudier le traitement de la peur chez des jeunes, nous avons adapté une tâche développée par Lau et ses collaborateurs (2008), employant des visages féminins comme stimuli. Le sexe des participants et des visages employés comme stimuli pouvant potentiellement moduler le traitement de la peur (Kret & de Gelder, 2012; McClure, 2000), nous avons étudié leurs influences respectives sur les réponses électrodermales et subjectives de peur durant le conditionnement et l’extinction de la peur chez 117 jeunes. Nous avons démontré que les stimuli féminins suscitent des réponses davantage comparables entre les garçons et les filles que les stimuli masculins. De plus, nous avons observé un effet du « même sexe », caractérisé par un conditionnement différentiel uniquement face aux stimuli du même sexe que le participant. Finalement, nous avons exploré les différences individuelles et conjointes associées aux différents niveaux de pratiques parentales coercitives et d’anxiété en termes de réponses de peur et d’activité cérébrale, durant le conditionnement et l’extinction de la peur chez 84 jeunes. Nous avons démontré que la coercition est spécifiquement associée au fonctionnement du lobe temporal médian et aux interactions entre l’amygdale et l’insula, durant le conditionnement. Durant l’extinction, les niveaux d’anxiété étaient associés à des différences spécifiques d’activation du gyrus cingulaire antérieur (GCA) dorsal. Enfin, les pratiques parentales coercitives et l’anxiété interagissent et viennent moduler la connectivité fonctionnelle amygdale - GCA rostral, l’activation d’une sous-région du GCA dorsal et les réponses subjectives de peur. Ces résultats ajoutent une pièce au casse-tête des neurosciences développementales et fournissent des pistes intéressantes pour le développement d’interventions futures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chaque année le feu brûle quelques dizaines de milliers d’hectares de forêts québécoises. Le coût annuel de prévention et de lutte contre les feux de forêts au Québec est de l’ordre de plusieurs dizaines de millions de dollars. Le présent travail contribue à la réduction de ces coûts à travers l’automatisation du processus de planification des opérations de suppression des feux de forêts majeurs. Pour ce faire, un modèle mathématique linéaire en nombres entiers a été élaboré, résolu et testé; introduisant un nouveau cas particulier à la littérature des Problèmes de Tournées de Véhicules (VRP). Ce modèle mathématique concerne le déploiement aérien des ressources disponibles pour l’extinction des incendies. Le modèle élaboré a été testé avec CPLEX sur des cas tirés de données réelles. Il a permis de réduire le temps de planification des opérations d’extinction des feux de forêts majeurs de 75% dans les situations courantes.