813 resultados para Anthropic disturbance
Resumo:
Time series analysis has gone through different developmental stages before the current modern approaches. These can broadly categorized as the classical time series analysis and modern time series analysis approach. In the classical one, the basic target of the analysis is to describe the major behaviour of the series without necessarily dealing with the underlying structures. On the contrary, the modern approaches strives to summarize the behaviour of the series going through its underlying structure so that the series can be represented explicitly. In other words, such approach of time series analysis tries to study the series structurally. The components of the series that make up the observation such as the trend, seasonality, regression and disturbance terms are modelled explicitly before putting everything together in to a single state space model which give the natural interpretation of the series. The target of this diploma work is to practically apply the modern approach of time series analysis known as the state space approach, more specifically, the dynamic linear model, to make trend analysis over Ionosonde measurement data. The data is time series of the peak height of F2 layer symbolized by hmF2 which is the height of high electron density. In addition, the work also targets to investigate the connection between solar activity and the peak height of F2 layer. Based on the result found, the peak height of the F2 layer has shown a decrease during the observation period and also shows a nonlinear positive correlation with solar activity.
Resumo:
Suomessa merkittävimpiä talouden laskusuhdanteita ja talouskriisejä ovat sotien jälkeen olleet 1990-luvun alun lama sekä vuonna 2008 alkanut finanssikriisin jälkeinen taantuma. Näillä kahdella ilmiöllä on ollut laajalti vaikutuksia koko kansantalouteemme, ja luonnollisesti suomalaisten kuluttajien taloudellinen hyvinvointi on muuttunut ilmiöiden myötä. Yksilöiden aiempaa huonompi taloudellinen hyvinvointi laskusuhdanteissa aiheutuu laskeneista tuloista, työttömyydestä ja varallisuushintojen laskusta sekä edellä mainittujen seurauksista. Tämän tutkielman tavoitteena on analysoida ja vertailla 1990-luvun laman ja 2000-luvun globaalin finanssikriisin aiheuttamia taloudellisia vaikutuksia suomalaisille kuluttajille. Lisäksi tarkoituksena on selvittää, minkä eri tekijöiden kautta laskusuhdanteet vaikuttavat kuluttajiin ja miksi. Tutkielman empiirisessä osiossa käytetään pääasiassa Tilastokeskuksen tuottamaa kvantitatiivista materiaalia sekä analyysin rikastamiseksi erilaisia kvalitatiivisia tutkimustuloksia aiheesta. Tutkielman lopputuloksena voidaan todeta 1990-luvun laman vaikuttaneen suomalaisiin kuluttajiin voimakkaammin ja pitkäkestoisemmin kuin finanssikriisin aiheuttaman taantuman. Laman vaikutukset kestivät useita vuosia, ja palautuminen oli hidasta. Erityisen suureksi ongelmaksi nousi työttömyyden voimakas kasvu. Finanssikriisin myötä työttömyys reagoi bruttokansantuotteen laskuun nähden sen sijaan maltillisesti, eivätkä esimerkiksi kotitalouksien tulot laskeneet samalla tavalla kuin laman aikana. Lisäksi merkittävässä osassa 1990-luvun lamaa oli asuntomarkkinoiden hintakupla ja sen puhkeaminen, jolla oli voimakas vaikutus reaalitalouteen. Laskukausien toisistaan poikkeavat vaikutukset johtuvat pitkälti niiden syntyyn johtaneiden syiden eroista sekä valtion talouspoliittisista toimista laskukausien helpottamiseksi. Siinä missä 1990-luvun lama johtui pääasiassa Suomen sisäisistä poliittisista päätöksistä ja pankkisektorista, oli finanssikriisi Suomen ulkopuolinen globaalin rahoitusmarkkinoiden häiriö.
Resumo:
The objectives of this master’s thesis were to understand the importance of bubbling fluidized bed (BFB) conditions and to find out how digital image processing and acoustic emission technology can help in monitoring the bed quality. An acoustic emission (AE) measurement system and a bottom ash camera system were evaluated in acquiring information about the bed conditions. The theory part of the study describes the fundamentals of BFB boiler and evaluates the characteristics of bubbling bed. Causes and effects of bed material coarsening are explained. The ways and methods to monitor the behaviour of BFB are determined. The study introduces the operating principles of AE technology and digital image processing. The empirical part of the study describes an experimental arrangement and results of a case study at an industrial BFB boiler. Sand consumption of the boiler was reduced by optimization of bottom ash handling and sand feeding. Furthermore, data from the AE measurement system and the bottom ash camera system was collected. The feasibility of these two systems was evaluated. The particle size of bottom ash and the changes in particle size distribution were monitored during the test period. Neither of the systems evaluated was ready to serve in bed quality control accurately or fast enough. Particle size distributions according to the bottom ash camera did not correspond to the results of manual sieving. Comprehensive interpretation of the collected AE data requires much experience. Both technologies do have potential and with more research and development they may enable acquiring reliable and real-time information about the bed conditions. This information could help to maintain disturbance-free combustion process and to optimize bottom ash handling system.
Resumo:
This investigation comprises three parts: (1) the source, mechanism of transport, and distribution of pollen, spores and other palynomorphs in Georgian Bay bottom sediments and a comparison of these data with the contemporary vegetation, (2) the relative significance of fluvial transportation of pollen and spores, and (3) the late- and postglacial history of vegetational and climatic changes in the Georgicin Bay region. Modem pollen and spore assemblages in Georgian Bay do reflect the surrovinding vegetation when preservation and pollen production by the different species are considered and accounted for. Relative pollen percentage and concentration isopoll patterns indicate that rivers contribute large quantities of pollen and spores to Georgian Bay. This is further substantiated by large amounts of pollen and spores which were caught in traps in the Moon, Muskoka, and Nottawasaga Rivers which flow into Georgian Bay. The majority of pollen and spores caught in these traps were washed into the rivers by surface water runoff and so reflect the vegetation of the watershed in a regional sense. In a 12.9 metre long sediment core from northeastern Georgian Bay the relative percentage and absolute pollen concentrations allow correlation of Georgian Bay Lake phases with climatic and forest history. Four distinct pollen zones are distinguished: zone GB IV which is the oldest, reflects the succession from open spruce woodland to boreal forest; zone GB III represents a period of pine-mixed hardwoods forests from about 10,000 to 7,500 years ago. A pine-maplehemlock association dominated in zone GB II, although during the culmination of postglacial warming about 4,000 to 5,000 years ago the Georgian Bay forests had a more deciduous character. Zone GB I clearly shows European man's disturbance of the forest by logging activities.
Resumo:
In the literature, introduced taxa are assumed to be present, more abundant, and occupy greater physical space in portions of ecosystems disturbed by human activity. This study tested this principle in two sites, Short Hills provincial Park ("SHU) and Backus Woods ("B~l"). spatial distribution of introduced taxa of vegetation, isopods, and earthworms was determined with the runs test along 300m transects encompassing gradients of anthropogenic disturbance severity. The hypothesis was that introduced taxa would be aggregated along these transects; the null hypothesis was that they would not be aggregated. The null hypothesis was rejected for the introduced taxa as a unit, and vegetation and earthworms individually. Introduced taxa were aggregated along 53.33% (N~30) and 57.14% (N~21) of the transects in SH and BW (respectively). Introduced vegetation (90.00%, N~10 and 100.00%, N~7) and earthworms (50.00%, N~10 and 50.00%, N~8) were also significantly aggregated within the sites. Introduced isopods, however, were not significantly aggregated at either place (20. 00%, N-=10 and 16. 67%, ~J~6). This study demonstrated that introduced taxa are aggregated within ecosystems disturbed by human activity. However, since introduced isopods were not significantly aggregated it was also shown that taxa respond differently.
Resumo:
Crawford Lake, Ontario, provides an ideal natural laboratory to study the response of freshwater dinoflagellates to cultural eutrophication. The anoxic bottom waters that result from meromixis in this small (2.4 ha) but deep (24 m) lake preserve varved sediments that host an exceptional fossil record. These annual layers provide dates for human activity (agriculture and land disturbance) around the lake over the last millennium by both Iroquoian village farmers (ca. A.D. 1268-1486) and Canadian farmers beginning ~A.D. 1883. The well established separate intervals of human activity around Crawford Lake, together with an abundance of available data from other fossil groups, allow us to further investigate the potential use of the cyst of freshwater dinoflagellates in studies of eutrophication. Cyst morphotypes observed have been assigned as Peridinium willei Huitfeldt-Kaas, Peridinium wisconsinense Eddy and Peridinium volzii Lemmermann and Parvodinium inconspicuum (Lemmermann) Carty. The latter two cyst-theca relationships were determined by culturing and by the exceptional preservation of thecae of P. inconspicuum in varves deposited at times of anthropogenic reductions in dissolved oxygen.
Resumo:
To examine the association between sleep disorders, obesity status, and the risk of diabetes in adults, a total of 3668 individuals aged 40+ years fromtheNHANES 2009-2010 withoutmissing information on sleep-related questions,measurements related to diabetes, and BMI were included in this analysis. Subjects were categorized into three sleep groups based on two sleep questions: (a) no sleep problems; (b) sleep disturbance; and (c) sleep disorder. Diabetes was defined as having one of a diagnosis from a physician; an overnight fasting glucose > 125 mg/dL; Glycohemoglobin > 6.4%; or an oral glucose tolerance test > 199mg/dL. Overall, 19% of subjects were diabetics, 37% were obese, and 32% had either sleep disturbance or sleep disorder. Using multiple logistic regression models adjusting for covariates without including BMI, the odds ratios (OR, (95% CI)) of diabetes were 1.40 (1.06, 1.84) and 2.04 (1.40, 2.95) for those with sleep disturbance and with sleep disorder, respectively. When further adjusting for BMI, the ORs were similar for those with sleep disturbance 1.36 (1.06, 1.73) but greatly attenuated for those with sleep disorders (1.38 [0.95, 2.00]). In conclusion, the impact of sleep disorders on diabetes may be explained through the individuals’ obesity status.
Resumo:
This study examined the impact of habitat restoration on bee communities (Hymenoptera: Apidae) of the Niagara Region, Ontario, Canada. Bee abundance and diversity was studied in three restored landfill sites: the Glenridge Quarry Naturalization Site (GQNS) in St. Catharines, Elm Street Naturalization Site in Port Colborne, and Station Road Naturalization Site in Wainfleet during 2011 and 2012. GQNS represented older sites restored from 2001-2003. Elm and Station sites represented newly restored landfills as of 2011. These sites were compared to control sites at Brock University where bee communities are well established and again to other landfills where no stable habitat was available before restoration. The objective of this study is to investigate the impact of restoration level on bee abundance and diversity in restored landfill sites of the Niagara Region. Based on the increased disturbance hypothesis (InDH) and the intermediate disturbance hypothesis (IDH), I hypothesized that bee abundance and diversity will follow two patterns. First pattern according to InDH suggest that as the disturbance decrease the bee abundance and diversity will increased. Second pattern according to the IDH bee abundance and diversity will be the highest at the intermediate level of disturbance. A total of 7 173 bees were collected using pan traps and flower collections, from May to October 2011 and 2012. Bees were classified to five families, 21 genera and sub-genera, containing at least 78 species. In 2011 bee abundance was not significantly different among restoration levels while in 2012 bee abundance was significant difference among restoration level. According to family there were no significant difference in Halictidae and Apidae abundance among restoration level while Colletidae and Megachilidae abundance were varied among restoration levels. The bee species richness was highest in the newly restored sites followed by restored control sites, and then the control site. The current study demonstrates that habitat restoration results in rapid increases in bee abundance and diversity for newly restored sites, and, further, that it takes only 2-3 years for bee assemblages in newly restored sites to arrive at the same levels of abundance and diversity as in nearby control sites where bee communities are well established.
Resumo:
A wild bee community in southern St. Catharines, Ontario, Canada, was studied from 2003 to 2012 to analyze the effects of primary succession on abundance and diversity. At a former landfill site near Brock University, which previously contained no bees, the number of bees and bee species was expected to increase rapidly following measures to restore the site to grassy meadow habitat. The Intermediate Disturbance Hypothesis (IDH) states that over time, succession occurs. Abundance and diversity increase initially and peak when pioneers coexist with specialized species, then decline because of competitive exclusion. Alternatively, abundance and diversity may continue to increase and stabilize without declining. Bees were sampled repeatedly among years from newer restoration sites (revegetated in 2003), older restoration sites on the periphery of the former landfill (revegetated in 2000), and nearby low disturbance grassy field (i.e. control) sites. In the newer sites, bee abundance and diversity increased then decreased while in older restoration and control sites mainly decreased. This pattern of succession matches the general predictions of the IDH, although declines were at least partially related to drought. By 2006, total bee abundance levels converged among all sites, indicating rapid colonization and succession, and by 2012 diversity levels were similar among sites as well, suggesting that the bee community was fully restored or nearly so within the ten-year study period.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
It Has Been Argued That in the Construction and Simulation Process of Computable General Equilibrium (Cge) Models, the Choice of the Proper Macroclosure Remains a Fundamental Problem. in This Study, with a Standard Cge Model, We Simulate Disturbances Stemming From the Supply Or Demand Side of the Economy, Under Alternative Macroclosures. According to Our Results, the Choice of a Particular Closure Rule, for a Given Disturbance, May Have Different Quantitative and Qualitative Impacts. This Seems to Confirm the Imiportance of Simulating Cge Models Under Alternative Closure Rules and Eventually Choosing the Closure Which Best Applies to the Economy Under Study.
Resumo:
article
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
L’aréthuse bulbeuse (Arethusa bulbosa L.) est une orchidée tourbicole rare au Québec de par la petite taille de ses populations et les pressions qui pèsent sur son habitat. L’aréthuse est reconnue comme étant intolérante aux changements édaphiques de son habitat, notamment en regard du drainage. Afin de déterminer si l’aréthuse est une bonne espèce indicatrice de l’intégrité écologique des tourbières, cette étude compare des parcelles où l’espèce est présente et où elle est absente. Au cours des étés 2009 et 2010, 37 tourbières du Québec méridional ont été échantillonnées. Des analyses discriminantes ont mis en évidence les facteurs naturels ou d’origine anthropique qui expliquent le mieux la différence entre les quatre types de parcelles. Aussi, la recherche d’espèces indicatrices de la présence de l’aréthuse a été réalisée grâce à la méthode INDVAL. Les résultats montrent que l’aréthuse pousse principalement dans des tourbières présentant des conditions minérotrophes, ce qui est appuyé par le pH élevé et la présence de plantes indicatrices de minérotrophie dans les parcelles contenant l’aréthuse. Cette dernière semble aussi profiter d’une certaine atténuation de la lumière par des arbres dispersés ou par les strates plus basses. Finalement, certaines perturbations de faible ampleur semblent être bénéfiques pour l’aréthuse, ce qui ne permet pas d’affirmer qu’elle est une bonne espèce indicatrice de l’intégrité écologique des tourbières.
Resumo:
L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-delà des perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.