872 resultados para Perforated panels
Resumo:
Recent developments in power electronics technology have made it possible to develop competitive and reliable low-voltage DC (LVDC) distribution networks. Further, islanded microgrids—isolated small-scale localized distribution networks— have been proposed to reliably supply power using distributed generations. However, islanded operations face many issues such as power quality, voltage regulation, network stability, and protection. In this thesis, an energy management system (EMS) that ensures efficient energy and power balancing and voltage regulation has been proposed for an LVDC island network utilizing solar panels for electricity production and lead-acid batteries for energy storage. The EMS uses the master/slave method with robust communication infrastructure to control the production, storage, and loads. The logical basis for the EMS operations has been established by proposing functionalities of the network components as well as by defining appropriate operation modes that encompass all situations. During loss-of-powersupply periods, load prioritizations and disconnections are employed to maintain the power supply to at least some loads. The proposed EMS ensures optimal energy balance in the network. A sizing method based on discrete-event simulations has also been proposed to obtain reliable capacities of the photovoltaic array and battery. In addition, an algorithm to determine the number of hours of electric power supply that can be guaranteed to the customers at any given location has been developed. The successful performances of all the proposed algorithms have been demonstrated by simulations.
Resumo:
Hajautettu sähköntuotanto aurinkopaneeleilla on Suomessa kasvussa. Kotitalouksiin asennettujen aurinkopaneelijärjestelmien määrä kasvaa jatkuvasti, mutta suuri osa tuotetusta sähköenergiasta syötetään sähköverkkoon. Tämä johtuu aurinkosähkön tuotannon painottumisesta kesäpäiviin, jolloin kotitalouksien kulutus on pienimmillään. Suurin hyöty itse tuotetusta energiasta saadaan kuitenkin käyttämällä se tuotantokohteessa, jolla minimoidaan energiansiirto sähköverkon ja kotitalouden rajapinnassa. Siirtämällä kotitalouden suurimpia kuormia aurinkosähkön mukaan ohjatuksi, voidaan saavuttaa merkittäviä parannuksia tuotetun sähkön omakäyttöasteessa. Helpoimmillaan tämä onnistuu kellokytkimellä, joka ajoittaa kulutuksen parhaimman tuotannon ajalle. Tämä ei kuitenkaan poista ongelmaa tilanteissa, jossa aurinkosähkön tuotanto on häiriintynyt esimerkiksi pilvisyyden takia aamupäivällä ja huipputuotanto saavutetaan vasta iltapäivän puolella. Saatavilla on jo useita järjestelmiä, jotka ohjaavat kodin laitteita tuotannon mukaisesti. Suuri osa näistä järjestelmistä on kuitenkin suunniteltu toimimaan vain tuotetun energiamäärän mukaisesti, ottamatta huomioon kotitaloudessa olevaa muuta, automaation piiriin kuulumatonta kulutusta. Tässä kandidaatin työssä vertaillaan sähköenergian eri mittaustapoja ja niiden vaikutusta siirretyn energian laskennalliseen määrään. Lisäksi työssä tutkitaan lämminvesivaraajan kuormanohjausta käyttäen termostaatti-, kellokytkin- ja logiikkaohjausta. Työssä esitelty logiikkaohjaus hyödyntää siirretyn energian mittausta sähköverkon ja kotitalouden rajapinnassa, ottaen automaattisesti huomioon myös talouden muun kulutuksen. Työssä esitellään myös esimerkkilaitteisto, jolla suunniteltu logiikka voidaan toteuttaa.
Resumo:
Aurinkopaneelien ja inverttereiden hinnat ovat laskeneet viime vuosina, joten au-rinkosähköstä on tullut kannattava sähköntuotantomuoto kiinteistöille. Tässä kandidaatintyössä kerrotaan, kuinka arvioida suunnitteilla olevan rakennuksen peruskuormaa aurinkopaneeleiden asennuksen näkökulmasta. Voimalaitoksen sijoituskohde sijaitsee Järvenpäässä. Kohteessa on 69 huoneistoa 8 kerroksessa ja yhteiset tilat 9. kerroksessa. Voimalaitoksen kannattavuutta tutkitaan simuloimalla tuotantoja ja arvioimalla kulutusta. Tuotantoja simuloidaan HOMER-ohjelmistolla. Rakennuksen kulutusta arvioidaan suunnittelijoilta saatujen tietojen perusteella, ja vanhempien samankaltaisten kohteiden kulutusten perusteella, jotka saadaan Nuuka-portaalista. Saaduista tuloksista huomataan, että nykyisillä sähkönhinnoilla aurinkopaneelit ovat kannattava investointi, vaikka sähköä tuotettaisiin hieman ylimääräistä, joten paneelit voidaan mitoittaa hieman kulutusta suuremmaksi. Takaisinmaksuaika on noin 20 vuotta. Tulokset ovat linjassa vanhempien tutkimusten kanssa. Tuloksista huomataan, myös että paneeleita jakamalla eri ilmansuuntiin saadaan tuotannon huipputeho pienemmäksi ja samalla tuotanto jakautumaan laajemmalle ajanjaksolle. Paneelien hintojen laskettua on kannattavaa asentaa paneeleja epäedullisempiin suuntiin, täten saadaan tuotantoa ajoitettua mahdollisesti paremmin kulutus-ta vastaavaksi. Mitoituksen voi tarkistaa rakennuksen valmistuttua, sillä raken-nuksesta tullaan mittaamaan paneeleiden tuottama sähkö ja kohteen kiinteistösähkönkulutus.
Resumo:
Tässä kandidaatintyössä perehdytään biokaasun syntyprosessiin ja sen hyödyntämismahdollisuuksiin, sekä vertaillaan biokaasun tuotannon määrää Suomessa ja Saksassa. Työssä tarkastellaan biokaasuvoimalan kannattavuutta keskikokoisen maatilan yhteydessä Etelä-Savossa ja käydään läpi biokaasuvoimalalle Suomessa myönnettäviä tukimuotoja. Tukimuotojen lisäksi käydään läpi erilaisia lupia ja hyväksyntöjä, joita maatilan yhteyteen rakennettava biokaasu-voimalaitos tarvitsee. Työn toisessa osassa käydään läpi aurinkoenergian hyödyntämismahdollisuuksia, aurinkosähköjärjestelmän komponentteja, sekä perehdytään aurinkopaneelin toimintaperiaatteeseen. Tarkastellaan biokaasuvoimalan lisäksi myös aurinkovoimalan kannattavuutta maatilan yhteydessä ja vertaillaan biokaasu- ja aurinkovoimalan ominaisuuksia keskenään. Lisäksi vertaillaan aurinkosähkön tuotantoa Suomessa ja Saksassa. Työn tavoitteena on selvittää biokaasu- ja aurinkosähkövoimalan kannattavuus esimerkkimaatilalla. Biokaasulaitoksen hinta-arvio saatiin vastauksena tarjouspyyntöön ja aurinkosähköjärjestelmän hinta arvioitiin kotimaisten toimittajien aurinkosähköpakettien hintojen avulla. Biokaasuvoimalan sähköntuottoennuste sekä huolto- ja käyttökustannukset perustuvat kirjallisuudesta saatuihin arvoihin. Aurinkovoimalan sähköntuottoennuste ja paneelien suuntauksen vaikutusta tuotantoon laskettiin PVGIS:n laskurilla sekä HOMER-ohjelmistolla. Kannattavuuslaskelmien perusteella kumpikaan voimalaitostyyppi ei tutkituilla voimalaitosten suuruuksilla ole kannattava 20 tai edes 30 vuoden pitoajalla esimerkkimaatilalla nykyisellä sähkönhinnalla ja tukitasolla. Aurinkosähköjärjestelmälle saadaan kuitenkin 20 vuoden takaisinmaksuaika, jos se hankitaan ilman lainarahaa. Tällöin voidaan ajatella, että laitos on kannattava. Biokaasulaitoksen kannattavuutta parantaisivat tukien ja sähkön hinnan nousun ohella kaasun ja lämmön myyntimahdollisuudet, joita esimerkkimaatilalla ei ole. Aurinkovoimalan kannattavuutta parantaisivat puolestaan tukien ja korkeamman sähkön hinnan lisäksi paremmin paneelien tuotantoa seuraava kulutus, jolloin pienempi osuus sähköstä päätyisi myyntiin.
Resumo:
Power at the Falls: The first recorded harnessing of Niagara Falls power was in 1759 by Daniel Joncairs. On the American side of the Falls he dug a small ditch and drew water to turn a wheel which powered a sawmill. In 1805 brothers Augustus and Peter Porter expanded on Joncairs idea. They bought the American Falls from New York State at public auction. Using Joncairs old site they built a gristmill and tannery which stayed in business for twenty years. The next attempt at using the Falls came in 1860 when construction of the hydraulic canal began by the Niagara Falls Hydraulic Power and Manufacturing Co. The canal was complete in 1861 and brought water from the Niagara river, above the falls, to the mills below. By 1881 the Niagara Falls Hydraulic Power and Manufacturing Co. had a small generating station which provided some electricity to the village of Niagara Falls and the Mills. This lasted only four years and then the company sold its assets at public auction due to bankruptcy. Jacob Schoellkopf arrived at the Falls in 1877 with the purchase of the hydraulic canal land and water and power rights. In 1879 Schoellkopf teamed up with Charles Brush (of Euclid Ohio) and powered Brush’s generator and carbon arc lights with the power from his water turbines, to illuminate the Falls electrically for the first time. The year 1895 marked the opening of the Adam No. 1 generating station on the American side. The station was the beginnings of modern electrical utility operations. The design and operations of the generating station came from worldwide competitions held by panels of experts. Some who were involved in the project include; George Westinghouse, J. Pierpont Morgan, Lord Kelvin and Nikoli Tesla. The plants were operated by the Niagara Falls Power Company until 1961, when the Robert Moses Plant began operation in Lewiston, NY. The Adams plants were demolished that same year and the site used as a sewage treatment plant. The Canadian side of the Falls began generating their own power on January 1, 1905. This power came from the William Birch Rankine Power Station located 500 yards above the Horseshoe Falls. This power station provided the village of Fort Erie with its first electricity in 1907, using its two 10,000 electrical horsepower generators. Today 11 generators produce 100,000 horsepower (75 megawatts) and operate as part of the Niagara Mohawk and Fortis Incorporated Power Group.
Resumo:
Dr. Stuart D. Scott has written extensively in the fields of prehistory and history. As an archaeologist, he has traveled to some of the most significant sites in the world, including Pompeii, Stonehenge, the Valley of the Kings, Egypt’s pyramids and the Taj Mahal. He spent nine months excavating with the Tikal Project in Guatemala before returning to the University of Arizona where he received a Ph.D. in 1963. He excavated in New Zealand as a Fulbright scholar in 1963-1964. In the fall of 1964, Dr. Scott started a long career in the Anthropology Department of the State University of New York. He taught graduate and undergraduate archaeology courses and continued his archaeological and historical research. In 1979, Scott established the Old Fort Niagara Archaeology in Progress Project at Old Fort Niagara in Youngstown, New York. For many years, he became involved with historical archaeology in western New York. It was during this work that he became interested in the Upper Canada Rebellion of 1837-1838 and its aftermath. Dr. Scott and his wife, Patricia Kay Scott, would use Christmas breaks, summer vacations, and sabbatical years to travel. They were repeatedly lured back to the South Pacific, conducting research in New Zealand, Australia and many of the Micronesian and Polynesian islands. To tell the whole story of the Rebellion and the prison exiles, they traveled extensively in Canada, the United States, England and Tasmania to collect archival research and to experience the scenes of this remarkable narrative. In 2004, Dr. Scott published To the Outskirts of Habitable Creation: Americans and Canadians Transported to Tasmania in the 1840s, which told the story of the men captured, tried, convicted, and exiled as a result of the Rebellion, also called the Patriot War. Other contributions include: • A collaboration with Dr. Charles Cazeau on the book Exploring the Unknown, Great Mysteries Reexamined published by Plenum Press in 1979 • The Patriot Game: New Yorkers and the Canadian Rebellion of 1837-1838, which appeared in New York History, Vol. 68, No.3. 1987 • A Frontier Spirit: The Life of James Gemmell published in Australiasian Canadian Studies, Vol. 25, No. 2 2007 • To the Outskirts of Habitable Creation which appeared in the Friends of the National Archives, Vol. 20, No. 1 2009 • Numerous academic journal publications • Service on conference panels • Various research papers and proposals Before retiring in 1997 and while still a resident of Buffalo, N.Y., Dr. Scott spent considerable time with Brock University President Emeritus James A. Gibson and History Professor Colin Duquemin. The three shared a love of Rebellion history. It was largely because of this connection that Brock University was chosen as the recipient of Dr. Scott’s research materials.
Resumo:
Affiliation: Maude Loignon, Lise Cyr & Emil Toma : Département de microbiologie et immunologie, Faculté de médecine, Université de Montréal
Resumo:
Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal
Resumo:
L’immunothérapie tumorale à médiation cellulaire est un traitement qui utilise le système immunitaire des patients afin d’induire une réponse des lymphocytes T CD8+ (T CD8+) contre la tumeur. Cette réponse est produite suite à la reconnaissance des antigènes par les T CD8+. Ces cibles sont appelées antigènes tumoraux (TAA) et définies comme des protéines exprimées par les cellules cancéreuses mais absentes des tissus normaux. Par une approche bio-informatique, notre laboratoire a identifié Dickkopf-1 (DKK1), une protéine inhibitrice de la voie de Wnt, comme un TAA potentiel. Une immunothérapie à médiation cellulaire efficace requiert l’identification de TAA candidats pertinents. Le traitement de patients par immunothérapie pourrait également être améliorées par l’augmentation de la puissance d’action anti-tumorale ainsi que la persistante des T CD8+ spécifiques aux TAA. Ce projet de doctorat se divise en deux parties : 1- La caractérisation de l’expression de DKK1 dans les cancers communs et la détermination de son immunogénicité afin de valider sa candidature comme TAA. 2- La reprogrammation des T CD8+, de patients atteints d’un cancer commun, vers un phénotype moins différentié afin d’augmenter leur potentiel anti-tumoral et leur persistance. Dans le premier objectif, nous avons caractérisé l’expression de DKK1 dans le cancer du sein et dans d’autres cancers communs. Le profil d’expression de DKK1 a été étudié par RT-PCR et par ELISA dans plusieurs lignées cellulaires de cancer et dans les tissus normaux. L’expression de DKK1 a aussi été étudiée dans des échantillons cliniques provenant de cancers du sein, du poumon et du rein. Trente pourcents (30%) des tumeurs provenant d’un cancer du sein exprimaient DKK1. La moitié des tumeurs DKK1(+) était triple négative, donc pas de récepteurs d’œstrogène et de progestérone et était Her-2/neu(-) (ces patientes ont des possibilités de traitements très restreintes). De plus, 50% des échantillons cliniques de tumeurs du poumon et 30% des tumeurs de rein exprimaient DKK1. Les observations effectuées dans le cancer du poumon ont été, par la suite, corroborées par d'autres groupes qui ont montré une corrélation entre l'expression de DKK1 et un mauvais pronostic. Après avoir confirmée l’expression de DKK1 dans les cancers communs, justifiant ainsi sa candidature comme TAA, nous avons évalué l’immunogénicité de DKK1. Pour ce faire, nous avons effectué des stimulations in vitro de cellules mononucléées du sang périphérique (PBMC) de patient(e)s atteint(e)s d’un cancer du sein ou du poumon avec des peptides dérivés de DKK1 pouvant être présentés par les complexes majeurs d’histocompatibilité (CMH) HLA-A*0201. Des clones de T CD8+ reconnaissant un peptide de DKK1 ont été identifiés et isolés. Par essai multiplex et cytométrie de flux intracellulaire, la polyfonctionnalité d’un ces clones T CD8+ spécifiques à DKK1 a été étudiée et a révélée un profil effecteur, renforçant ainsi la candidature de DKK1 comme TAA. Dans l’ensemble, les résultats obtenus dans cette première partie de thèse suggèrent une possible utilisation de DKK1 en immunothérapie contre les cancers communs, attribuable à son expression dans ces cancers et la possibilité de faire proliférer des T CD8+ effecteurs spécifiques à DKK1 à partir de sang de patients. Dans la seconde partie de cette thèse, je décrirai la manipulation in vitro des T CD8+ de patients atteints d’un cancer commun, afin d’augmenter la force et la durée de leurs fonctions anti-tumorales. Il a été démontré que des lymphocytes moins différentiés sont capables d’une réponse immunologique plus efficace et durable. Nous avons basé ce projet sur l’utilisation d’un inhibiteur pharmacologique de la GSK-3, pour activer de la voie de Wnt chez les T CD8+ et ainsi leur conférer un phénotype moins différentié, partageant des caractéristiques de la cellule naïve et de la cellule mémoire. Des cultures de T CD8+, spécifiques à des antigènes viraux, en présence de l’inhibiteur ont permis d’augmenter la sécrétion d’interféron (IFN)- et leur activité cytotoxique. Ces résultats indiquent un effet de l’activation de la voie de Wnt sur la fonction des T CD8+. Ces observations sont rapportées pour la première fois chez les T CD8+ humains et suggèrent une nouvelle stratégie, applicables à l’immunothérapie du cancer, afin de prolonger la persistance des cellules ainsi que leur activité anti-tumorale. En conclusion, ces travaux de recherche ont mené à la réalisation d’une étape très importante dans la validation de la candidature de DKK1 comme TAA pour les cancers communs, soit la démonstration de son expression dans ces cancers et son absence dans les tissus normaux dérivés d’organes importants. Ces travaux ont également mené à la démonstration de l’immunogénicité de DKK1, par l’identification d’un peptide de DKK1 reconnu par les T CD8+. De plus, l’étude de la polyfonctionnalité des T CD8+ spécifiques à DKK1 a révélée un profil effecteur favorable pour l’obtention d’une réponse anti-tumorale efficace. Ces découvertes pourraient servir à l’élaboration d’une stratégie d’immunothérapie à médiation cellulaire pour les cancers communs. Pour sa part, l’étude phénotypique et fonctionnelle de la modulation de la voie de Wnt dans les T CD8+ a donné lieu à l’observation d’un phénotype encore jamais rapporté chez l’humain, conférant aux T CD8+ un aspect moins différentié avec des caractéristiques propre à un phénotype mémoire. Ces résultats sont pertinents dans l’amélioration de l’immunothérapie du cancer, passant par l’augmentation de la persistance des lymphocytes. En résumé, les résultats présentés dans cette thèse de doctorat fournissent des évidences indéniables quant à la validation de DKK1 comme TAA pour une immunothérapie à médiation cellulaire des cancers communs. Ces résultats fournissent également des preuves quant à la pertinence de la reprogrammation des T CD8+ par l’activation de la voie de la voie de Wnt, afin de générer des lymphocytes médiateurs plus efficaces pour ce type de thérapie.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
L’analyse des anomalies génomiques récurrentes est importante pour établir le diagnostic, le pronostic et pour orienter la thérapie des leucémies aiguës pédiatriques. L’objectif de notre étude est d’élaborer une stratégie optimale pour détecter les anomalies chromosomiques dans les leucémies aiguës lymphoblastiques (LAL) et myéloïdes (LAM) des enfants. Pour ce faire, nous avons caractérisé au caryotype, avec des panels d’hybridation in situ en fluorescence (FISH), par RT-PCR et par l’index d’ADN 253 leucémies de novo reçues au CHU Sainte-Justine entre 2005 et 2011 (186 LAL-B, 27 LAL-T et 40 LAM). Nous avons réussi à optimiser la détection des anomalies chromosomiques dans les trois types de leucémies, avec des fréquences de 93,5% dans les LAL-B (174/186), 66,7% dans les LAL-T (18/27) et 90% dans les LAM (36/40). Nos résultats suggèrent d’utiliser plusieurs tests génétiques concomitants afin d’optimiser la détection des anomalies génomiques dans les LAL et les LAM de novo pédiatriques.
Resumo:
Le présent travail se penche sur le concept de la conscience de l’environnement d’affaires. Ce concept fait référence à l’importance de la prise en compte par l’employé non-cadre d’un ensemble varié d’éléments d’information composant l’environnement d’affaires. La prise en considération de ces éléments d’information par l’employé aiderait ce dernier non seulement à prendre de meilleures décisions d’affaires, mais aussi à résoudre des problèmes dans un milieu de travail prônant la gestion participative. Seulement deux mémoires et un article scientifique se sont penchés sur la conscience de l’environnement d’affaires. Le mémoire d’Ève St-Onge (2007) a justifié l’existence du concept et a établi une première liste d’indicateurs reflétant les éléments d’information de l’environnement d’affaires. Pour sa part le mémoire de Véronique Gauvreau-Jean (2008) s’est plutôt attardé à la validation initiale d’une échelle de mesure de la conscience de l’environnement d’affaires. À ces deux mémoires s’ajoute l’article scientifique de Haines, Rousseau, Brotheridge et St-Onge (2012) lequel a permis de définir un ensemble d’indicateurs et de dimensions de la conscience de l’environnement d’affaires. Le présent mémoire a pour objectif de vérifier le caractère adéquat du contenu de l’échelle de Véronique Gauvreau-Jean (2008), ce type de vérification «consiste essentiellement à examiner le contenu du test pour s’assurer de sa représentativité en tant qu’échantillon du domaine de comportements à évaluer» (Anastasi, 1982, p.132). Considérant la complexité de la conscience de l’environnement d’affaires, cette vérification s’impose pour mettre au point une échelle de mesure qui peut être généralement applicable dans des milieux de travail ayant recours à une gestion participative. Pour vérifier le caractère adéquat du contenu de l’échelle de mesure de Véronique Gauvreau-Jean (2008), il y a eu l’animation de deux panels de discussion avec une entreprise œuvrant dans le placement de personnel ainsi qu’une autre dans la distribution de produits de papier. Avec les propos des participants des panels, une analyse des données a été effectué pour produire une échelle de mesure reformulée. Cette dernière a ensuite eu un avis favorable par deux professeurs, de différentes facultés d’administration québécoises, concernant la facilité de compréhension et sa capacité de refléter les éléments de l’environnement d’affaires. Il y a finalement eu la comparaison du contenu de l’échelle reformulée et du contenu de l’échelle de Gauvreau-Jean (2008) pour déterminer le caractère adéquat de l’échelle existante.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
The curious anecdote in Karel van Mander’s biography of Bruegel, where the artist is said to have swallowed all the mountains and rocks during his crossing of the Alps and spat them out again onto canvas and panels upon returning home, has been quoted by almost every Bruegel scholar. Yet it has never been given a full explanation. In this study, it is proposed that the passage, echoing on one level Bruegel’s frequent depiction of overindulging peasants, disguises a highly cultivated reference to the theory of imitation as a digestive process, or innutrition theory, which was widely used by humanist writers of the time to champion vernacular expression.