927 resultados para parcel-scale spatial analysis


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Transverse, subglacial bedforms (ribbed moraines) occur frequently in southern Keewatin, Nunavut, Canada, where they record a complex glacial history, including shifting centers of ice dispersal and fluctuating basal thermal regimes. Comprehensive mapping and quantitative morphometric analysis of the subglacial bedform archive in this sector reveals that ribbed moraines are spatially clustered by size and assume a broad range of visually distinct forms. Results suggest that end-member morphologies are consistent with a dichotomous polygenetic origin, and that a continuum of forms emerged through subsequent reshaping processes of variable intensity and duration. Translocation of mobile, immobile and quasi-mobile beds throughout the last glacial cycle conditioned the development of a subglacial deforming bed mosaic, and is likely responsible for the patchy zonation of palimpsest and inherited landscape signatures within this former core region of the Laurentide Ice Sheet. Comparison against field evidence collected from central Norway suggests that bedforming processes can be locally mediated by pre-existing topography.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Purpose of This Article Is to Show How Costs and Benefits of Geographical Decentralization of R&D Can Be Identified and Compared. the Benefits for the Region That Receives R&D Activities Are Studied in Section 1. They Stem From the Short-Run Multiplier Effect, the Amelioration of Human Capital and the Possible Modernization of the Local Industrial Structure. on the Cost Side Examined in Section 2, the Observable Impacts of the Decentralization of R&D Concern the Loss of Returns to Scale and of the Production of the R&D Output. It Is Shown, in Section 3, That the Flows of Costs and Benefits Must Be Discounted by the Social Cost of Capital. the Main Conclusion of This Article Is That the Decentralization of R&D in a Large Sparsely Populated Country Entails Social Cost and Would Weaken Its Competitive Position in World Commerce. on the Other Hand, the Issue of Decentralization Is More Crucial for Small Countries (In Terms of Population and Economic Size) Than for Large Ones, Like the U.S., Where Critical Masses of Research Efforts Cna Be Simulataneously Attained in Many Fields and in Many Places.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent ouvrage propose une lecture spatiale du roman Texaco, de l’auteur martiniquais Patrick Chamoiseau. Texaco retrace l’histoire de la Martinique, principalement celle de sa population noire créolophone, depuis le XIXe siècle – époque de la traite et de l’esclavage – jusqu’à la fin du XXe siècle. Considérant que l’identité d’un individu (ou d’une communauté) est étroitement corrélée au rapport qu’entretient celui-ci avec son espace de vie, notre travail vise à mettre au jour les particularités identitaires des personnages du roman au travers d’une analyse des espaces qu’ils occupent et façonnent dans le récit. En nous appuyant sur des concepts spatiaux empruntés à Henri Lefebvre (l’espace tripartite), à Michel de Certeau (le lieu, l’espace et la pratique spatiale) et à Marc Augé (le lieu et le non-lieu), nous souhaitons montrer de quelle manière et dans quelle mesure ces différentes entités spatiales expriment, consolident ou oblitèrent l’identité singulière des personnages chamoisiens, c’est-à-dire leur « créolité ».

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le béluga du Saint-Laurent est une espèce menacée au Canada et protégée par la Loi sur les espèces en péril du Canada. La détermination des fonctions biologiques de ses habitats essentiels est nécessaire afin d’assurer le rétablissement de la population. Parcs Canada a entamé en 2009 un suivi des proies du béluga dans deux de ses aires de fréquentation intensive situées dans le Parc marin du Saguenay–Saint-Laurent : l’embouchure de la rivière Saguenay et la baie Sainte-Marguerite. L’étude de l’abondance et de la distribution des proies est réalisée par sondage hydroacoustique le long de transects à l’aide d’un échosondeur multifréquences. Un protocole d’observations systématiques du béluga est mené simultanément aux sondages hydroacoustiques à partir de sites terrestres. Le premier objectif de cette étude est de développer la méthodologie concernant le traitement, la classification et la cartographie des données hydroacoustiques échantillonnées. L’objectif principal consiste à déterminer si l’abondance et la distribution des proies pélagiques ont une influence sur l’utilisation de ces deux habitats par le béluga. La cartographie de la biomasse relative de poissons a été réalisée pour la couche de surface, la couche en profondeur et pour l’ensemble de la colonne d’eau par krigeage ordinaire pour les deux habitats pour les 29 transects. À la baie Sainte-Marguerite, le nombre de bélugas observés augmente avec la biomasse relative des proies en surface et en profondeur. À l’embouchure de la rivière Saguenay, les résultats n’ont pas été concluants. Les résultats suggèrent que l’alimentation pourrait être l’une des fonctions biologiques de la baie Sainte-Marguerite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les services écosystémiques (SE) réfèrent aux bénéfices que produisent et soutiennent la biodiversité et les écosystèmes et qui profitent à l’être humain. Dans beaucoup de cas, ils ne sont pas pris en compte dans le système économique. Cette externalisation des SE engendre des décisions sur l’utilisation du territoire et des ressources naturelles qui ignorent leur contribution à la qualité de vie des communautés. Afin notamment de sensibiliser l’opinion publique à l’importance des SE et de mieux les intégrer dans les processus décisionnels, ont été développées des démarches d’évaluation économique des SE. Dans cette thèse, nous avons cherché à comprendre à la fois comment l’utilisation passée et actuelle des sols dans la région de Montréal affecte la valeur des SE et comment ces aménités naturelles sont perçues et valorisées par la population, dans une perspective d’aménagement futur du territoire. Pour ce faire, nous avons utilisé deux approches : l’analyse spatiale recourant aux systèmes d’information géographique et l’analyse des préférences exprimées par des techniques d’enquête. Pour l’analyse spatiale, nous avons combiné des analyses cartographiques à des valeurs monétaires associées aux SE publiées dans la littérature. Nous avons alors estimé la valeur des écosystèmes d’un territoire par le transfert de bénéfices, de prix de marchés directs et de coûts évités. Cette démarche nous a permis de comprendre la relation entre l’utilisation actuelle du territoire du Grand Montréal écologique et la valeur des services fournis par les écosystèmes, que nous avons estimée à 2,2 milliards de dollars par année. Elle nous a permis aussi de mesurer les effets sur la valeur des SE du changement d’utilisation des sols entre les années 1960 et 2010. Nous avons montré que malgré différentes politiques de contrôle et d’encadrement de l’étalement urbain au cours de cette période, les pertes économiques non marchandes liées aux SE s’élèvent à 236 millions de dollars par année. Pour l’analyse des préférences exprimées, nous avons utlilisé deux méthodes, l’évaluation contingente et le choix multi-attributs, avec l’objectif de mesurer le consentement à payer de répondants pour des variations dans l’aménagement du territoire. Nous avons montré d’une part que les répondants valorisent significativement l’incidence des pratiques agro-environnementales sur la qualité de l’environnement et des paysages en consentant à payer entre 159 et 333 dollars par ménage par année pour une amélioration de la diversité du paysage agricole. D’autre part, leur volonté à payer pour l’amélioration de l’état des milieux humides du Québec est estimée entre 389 et 455 dollars par ménage par année. L’utilisation conjointe des deux méthodes nous a permis d’en comparer les résultats. Nous avons en outre démontré que le choix du format de question de valorisation de l’évaluation contingente affecte la convergence des résultats. Enfin, nous avons proposé des pistes de recherches futures portant sur l’intégration des démarches d’analyse biophysique, économique et politique dans des outils de prise de décision mieux adaptés à la dynamique des écosystèmes, de la biodiversité et des communautés humaines.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La douleur est une expérience multidimensionnelle comportant des aspects sensoriels, émotionnels et cognitifs. Théoriquement, des méthodes de mesures comportementales, physiologiques, neurophysiologiques et sensorielles peuvent quantifier la douleur. Peu d’études ont étudié la validation des mesures utilisées en médecine vétérinaire. La recherche combine les travaux de Maîtrise et de Doctorat, traite en partie de la validité de méthodes. Dans cet objectif, nos travaux de recherche étudiaient la validité de méthodes comportementales, physiologiques et neurophysiologiques usuelles pour la mesure de la douleur en comparant les expressions de douleur (vache et chien) chez des animaux contrôle par comparaison à des animaux sous analgésie préventive ou sous traitement curatif suivant une douleur induite par chirurgie (modèles de douleur viscérale bovine ou orthopédique canine) ou causée par une maladie naturelle (arthrose canine). Une première étude comparait les mesures de la douleur entre les vaches du groupe placebo et celles sous analgésie postopératoire sur une durée de 21 jours suivant l’induction d’une douleur viscérale chronique. Les vaches du groupe placebo ont présenté une plus forte sensibilité à la douleur et une diminution de la noradrénaline et de la transthyrétine mesurées dans le liquide cérébro-spinal, une diminution de l’activité motrice (AM) (moindre que dans les groupes avec analgésie), de l’agitation enregistrée par vidéo-analyse et une augmentation du stress selon la mesure de l’activité électrodermique (AED). Les méthodes d’intérêt identifiées étaient les marqueurs spinaux, la mesure de la sensibilisation, de comportements par vidéo-analyse et de l’AM par bio-télémétrie. En utilisant des méthodes semblables à celles précédemment décrites, deux études expérimentales de douleur orthopédique ont été réalisées afin de comparer les réponses à la douleur entre des chiens traités avec une analgésie préventive (opioïdes et anti-inflammatoires, étude #2) ou un biphosphonate (tiludronate, étude #3) par comparaison à des chiens contrôles. Seules les échelles de douleur étaient différentes entre les études de recherche. Pour l’étude #2, les ii chiens sous analgésie ont présenté de plus faibles scores de douleur mesurés avec l’échelle de douleur nommée 4A-VET et ceci simultanément à une faible réponse de l’AED une heure après la chirurgie de trochléoplastie. La fréquence du comportement spontané de ‘la marche avec plein appui de la patte opérée’ mesurée à l’aide de la vidéo-analyse augmentait chez les chiens sous analgésie préventive 24 heures après la chirurgie. L’étude #3 démontrait surtout l’apparition de sensibilisation centrale (à la fois par l’évaluation sensorielle quantitative et les marqueurs spinaux) chez les chiens contrôle, 56 jours après l’induction d’arthrose chirurgicale. Ainsi, les chiens traités avec le tiludronate ont présenté une différence sur la substance P et la transthyrétine cérébro-spinale, une diminution de la sensibilisation périphérique, plus d’appui de la patte opérée lors de la marche selon la mesure du pic de force verticale (PFV), une augmentation de la fréquence de ‘la marche avec plein appui de la patte opérée’. La sensibilisation centrale était associée à la diminution de PFV, et une augmentation de l’AED et du comportement spontané de ‘la marche avec plein appui de la patte opérée’. Pour l’étude #4, la validité et la sensibilité des méthodes ont été évaluées dans une condition d’arthrose naturelle chez des chiens traités avec une diète enrichie en moule verte, un produit ayant des effets anti-inflammatoires et chondroprotecteurs attendus. Les chiens traités présentaient une diminution des scores de douleur via l’échelle nommée CSOM, une augmentation de PFV et une augmentation de l’AM. Dans l’ensemble, les résultats confirment que la vidéo-analyse évaluait la douleur de façon objective et pour des modèles différents de douleur et les marqueurs spinaux sont prometteurs. Le PFV était spécifique de la douleur orthopédique. La sensibilisation était présente lors de douleur pathologique. L’AED n’est pas valide pour la mesure de la douleur. La baisse d’AM suggèrerait un comportement de douleur. Les études étaient exploratoires pour les échelles de douleur en raison de leur niveau (débutant) de développement et du manque d’informations sur les qualités métrologiques de ces mesures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’historien n’écrit pas de nulle part. Ancré dans son présent et participant à la société, il en épouse – ou critique – les projets, les utopies et les grands récits. Nous proposons dans ce travail d’approfondir cet ancrage à travers une histoire croisée et comparée des expériences du temps de deux historiens français (Michel de Certeau, François Furet) et d’un historien-sociologue québécois (Fernand Dumont). Notre objectif est double : il s’agit d’établir, dans un premier temps, les correspondances entre leurs expériences lors de deux tournants, celui des années 1960 et celui des années 1970. Tout en prenant en compte les contextes des auteurs à l’étude, nous élargirons l’échelle d’analyse afin de cerner la contemporanéité d’expériences du temps qui ne se réduisent pas aux seuls cadres nationaux. Nous pourrons ainsi établir les coordonnées des régimes d’historicité à chaque tournant en contribuant à préciser les différentes combinaisons des modes futuristes et présentistes en jeu. Dans un deuxième temps, nous explorerons les liens entre historiographie et régime d’historicité afin de mettre en évidence les jonctions entre les considérations épistémologiques et l’horizon d’attente des historiens à l’étude. En abordant plus spécifiquement la question du rôle de l’historien dans sa société, nous jaugeons les transformations parallèles de son expérience du temps et de ses pratiques historiographiques. Le passage de l’expérience d’une Histoire en marche au tournant de 1960 à celle d’une histoire bloquée au tournant de 1970 affecte considérablement la place et le statut de l’historien. D’éminent passeur du temps à l’écoute du sens du progrès, l’historien voit son statut contesté et marginalisé, ce qui ne veut pas dire que son rôle est moins important. Qu’il débusque des alternatives passées ou court-circuite des téléologies, il est chargé de maintenir coûte que coûte ouverts les horizons du temps. Nous verrons spécifiquement le sens que prenait cette tâche à un moment où la possibilité d’une « société nouvelle », après Mai 68, pointait à l’horizon des contemporains.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Au niveau interpersonnel, la psychopathie implique un manque de considération d’autrui pouvant se manifester par la tromperie, la manipulation et l’exploitation. La présente thèse a investigué la relation entre les caractéristiques psychopathiques d'individus non incarcérés et la tendance à coopérer dans un jeu du dilemme du prisonnier itératif. Un total de 85 hommes ont été recrutés via une annonce qui ciblait des traits de personnalité correspondant à des caractéristiques psychopathiques exprimées de façon non péjorative. Plusieurs méthodes ont été employées pour rejoindre les participants : 46 ont participés en personne après avoir répondu à une invitation affichée dans un journal local ainsi que sur des babillards à proximité d'une université; 39 ont complété l'étude sur Internet après avoir été recrutés via un site web de petites annonces. Chaque participant a répondu à un questionnaire incluant l’Échelle Auto-rapportée de Psychopathie (Levenson, Kiehl, & Fitzpatrick, 1995) et l’Échelle Auto-rapportée des Indicateurs de Psychopathie de l’Enfance et de l’Adolescence (Seto, Khattar, Lalumière, & Quinsey, 1997). Ils ont également complété une simulation informatique du dilemme du prisonnier itératif comprenant 90 essais. La simulation informatique utilisée pour évaluer les participants en personne ainsi que la version accessible par Internet ont été conçues et programmées spécifiquement pour la présente thèse. La simulation informatique incluait trois stratégies souvent associées au dilemme du prisonnier itératif : donnant-donnant, donnant-donnant-généreux et gagne/reste-perd/change. Les analyses préliminaires ont montré que les participants vus en personne et ceux rejoints par Internet ne différaient pas en termes de variables sociodémographiques, des caractéristiques psychopathiques, de la désirabilité sociale et des réponses au dilemme du prisonnier. Une régression multiple standard a indiqué que les mesures psychopathiques ne pouvaient pas prédire le nombre total de choix coopératifs dans le jeu. Par contre, une corrélation négative a été trouvée entre les caractéristiques interpersonnelles et affectives de la psychopathie et la coopération dans le premier tiers du jeu. De plus, les participants qui présentaient davantage de caractéristiques psychopathiques interpersonnelles et affectives avaient plus souvent réussi à exploiter l'ordinateur en dénonçant alors que la simulation informatique coopérait. Des analyses multi-niveaux ont exploré la contribution de variables au niveau de la décision et au niveau de l'individu dans la prédiction du choix de coopérer ou de dénoncer lors de chaque essai du jeu; les interactions entre ces variables ont aussi été considérées. Les résultats ont montré que les variables au niveau de la décision influençaient généralement plus fortement les chances de coopérer que les variables au niveau de l'individu. Parmi les mesures de la psychopathie, seulement les caractéristiques interpersonnelles et affectives ont montré une association significative avec les chances de coopérer; les interactions avec le premier choix effectué dans le jeu et le premier tiers du jeu étaient significatives. Ainsi, si un participant avait coopéré au premier essai, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution de ses chances de coopérer par la suite. Aussi, durant les 30 premiers essais du jeu, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution des chances de coopérer. La stratégie adoptée par la simulation informatique n'avait pas d'influence sur le lien entre les caractéristiques psychopathiques et la probabilité de coopérer. Toutefois, le fait de jouer contre donnant-donnant était associé à de plus fortes chances de coopérer d'un essai à l'autre pour l'ensemble des participants. Globalement, les résultats suggèrent que les hommes non incarcérés présentant des caractéristiques psychopathiques ne seraient pas nécessairement portés à choisir systématiquement la non-coopération. En fait, les caractéristiques interpersonnelles et affectives de la psychopathie ont semblé se traduire par une tendance à faire bonne impression au départ, tenter rapidement d'exploiter autrui en dénonçant, puis finir par coopérer. Cette tendance comportementale est discutée, ainsi que la pertinence d'utiliser le dilemme du prisonnier itératif et les analyses multi-niveaux pour étudier le comportement interpersonnel des psychopathes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

TRAVAIL DIRIGÉ PRÉSENTÉ À LA FACULTÉ DES ARTS ET SCIENCES EN VUE DE L’OBTENTION DU GRADE DE MAÎTRE ÈS SCIENCES (M.SC.) EN CRIMINOLOGIE OPTION CRIMINALISTIQUE ET INFORMATION

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les artéfacts métalliques entraînent un épaississement artéfactuel de la paroi des tuteurs en tomodensitométrie (TDM) avec réduction apparente de leur lumière. Cette étude transversale prospective, devis mesures répétées et observateurs avec méthode en aveugle, chez 24 patients consécutifs/71 tuteurs coronariens a pour objectif de comparer l’épaisseur de paroi des tuteurs en TDM après reconstruction par un algorithme avec renforcement des bords et un algorithme standard. Une angiographie coronarienne par TDM 256 coupes a été réalisée, avec reconstruction par algorithmes avec renforcement des bords et standard. L’épaisseur de paroi des tuteurs était mesurée par méthodes orthogonale (diamètres) et circonférentielle (circonférences). La qualité d’image des tuteurs était évaluée par échelle ordinale, et les données analysées par modèles linéaire mixte et régression logistique des cotes proportionnelles. L’épaisseur de paroi des tuteurs était inférieure avec l’algorithme avec renforcement des bords comparé à l’algorithme standard, avec les méthodes orthogonale (0,97±0,02 vs 1,09±0,03 mm, respectivement; p<0,001) et circonférentielle (1,13±0,02 vs 1,21±0,02 mm, respectivement; p<0,001). Le premier causait moins de surestimation par rapport à l’épaisseur nominale comparé au second, avec méthodes orthogonale (0,89±0,19 vs 1,00±0,26 mm, respectivement; p<0,001) et circonférentielle (1,06±0,26 vs 1,13±0,31 mm, respectivement; p=0,005) et diminuait de 6 % la surestimation. Les scores de qualité étaient meilleurs avec l’algorithme avec renforcement des bords (OR 3,71; IC 95% 2,33–5,92; p<0,001). En conclusion, la reconstruction des images avec l’algorithme avec renforcement des bords génère des parois de tuteurs plus minces, moins de surestimation, et de meilleurs scores de qualité d’image que l’algorithme standard.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Study on variable stars is an important topic of modern astrophysics. After the invention of powerful telescopes and high resolving powered CCD’s, the variable star data is accumulating in the order of peta-bytes. The huge amount of data need lot of automated methods as well as human experts. This thesis is devoted to the data analysis on variable star’s astronomical time series data and hence belong to the inter-disciplinary topic, Astrostatistics. For an observer on earth, stars that have a change in apparent brightness over time are called variable stars. The variation in brightness may be regular (periodic), quasi periodic (semi-periodic) or irregular manner (aperiodic) and are caused by various reasons. In some cases, the variation is due to some internal thermo-nuclear processes, which are generally known as intrinsic vari- ables and in some other cases, it is due to some external processes, like eclipse or rotation, which are known as extrinsic variables. Intrinsic variables can be further grouped into pulsating variables, eruptive variables and flare stars. Extrinsic variables are grouped into eclipsing binary stars and chromospheri- cal stars. Pulsating variables can again classified into Cepheid, RR Lyrae, RV Tauri, Delta Scuti, Mira etc. The eruptive or cataclysmic variables are novae, supernovae, etc., which rarely occurs and are not periodic phenomena. Most of the other variations are periodic in nature. Variable stars can be observed through many ways such as photometry, spectrophotometry and spectroscopy. The sequence of photometric observa- xiv tions on variable stars produces time series data, which contains time, magni- tude and error. The plot between variable star’s apparent magnitude and time are known as light curve. If the time series data is folded on a period, the plot between apparent magnitude and phase is known as phased light curve. The unique shape of phased light curve is a characteristic of each type of variable star. One way to identify the type of variable star and to classify them is by visually looking at the phased light curve by an expert. For last several years, automated algorithms are used to classify a group of variable stars, with the help of computers. Research on variable stars can be divided into different stages like observa- tion, data reduction, data analysis, modeling and classification. The modeling on variable stars helps to determine the short-term and long-term behaviour and to construct theoretical models (for eg:- Wilson-Devinney model for eclips- ing binaries) and to derive stellar properties like mass, radius, luminosity, tem- perature, internal and external structure, chemical composition and evolution. The classification requires the determination of the basic parameters like pe- riod, amplitude and phase and also some other derived parameters. Out of these, period is the most important parameter since the wrong periods can lead to sparse light curves and misleading information. Time series analysis is a method of applying mathematical and statistical tests to data, to quantify the variation, understand the nature of time-varying phenomena, to gain physical understanding of the system and to predict future behavior of the system. Astronomical time series usually suffer from unevenly spaced time instants, varying error conditions and possibility of big gaps. This is due to daily varying daylight and the weather conditions for ground based observations and observations from space may suffer from the impact of cosmic ray particles. Many large scale astronomical surveys such as MACHO, OGLE, EROS, xv ROTSE, PLANET, Hipparcos, MISAO, NSVS, ASAS, Pan-STARRS, Ke- pler,ESA, Gaia, LSST, CRTS provide variable star’s time series data, even though their primary intention is not variable star observation. Center for Astrostatistics, Pennsylvania State University is established to help the astro- nomical community with the aid of statistical tools for harvesting and analysing archival data. Most of these surveys releases the data to the public for further analysis. There exist many period search algorithms through astronomical time se- ries analysis, which can be classified into parametric (assume some underlying distribution for data) and non-parametric (do not assume any statistical model like Gaussian etc.,) methods. Many of the parametric methods are based on variations of discrete Fourier transforms like Generalised Lomb-Scargle peri- odogram (GLSP) by Zechmeister(2009), Significant Spectrum (SigSpec) by Reegen(2007) etc. Non-parametric methods include Phase Dispersion Minimi- sation (PDM) by Stellingwerf(1978) and Cubic spline method by Akerlof(1994) etc. Even though most of the methods can be brought under automation, any of the method stated above could not fully recover the true periods. The wrong detection of period can be due to several reasons such as power leakage to other frequencies which is due to finite total interval, finite sampling interval and finite amount of data. Another problem is aliasing, which is due to the influence of regular sampling. Also spurious periods appear due to long gaps and power flow to harmonic frequencies is an inherent problem of Fourier methods. Hence obtaining the exact period of variable star from it’s time series data is still a difficult problem, in case of huge databases, when subjected to automation. As Matthew Templeton, AAVSO, states “Variable star data analysis is not always straightforward; large-scale, automated analysis design is non-trivial”. Derekas et al. 2007, Deb et.al. 2010 states “The processing of xvi huge amount of data in these databases is quite challenging, even when looking at seemingly small issues such as period determination and classification”. It will be beneficial for the variable star astronomical community, if basic parameters, such as period, amplitude and phase are obtained more accurately, when huge time series databases are subjected to automation. In the present thesis work, the theories of four popular period search methods are studied, the strength and weakness of these methods are evaluated by applying it on two survey databases and finally a modified form of cubic spline method is intro- duced to confirm the exact period of variable star. For the classification of new variable stars discovered and entering them in the “General Catalogue of Vari- able Stars” or other databases like “Variable Star Index“, the characteristics of the variability has to be quantified in term of variable star parameters.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In [4], Guillard and Viozat propose a finite volume method for the simulation of inviscid steady as well as unsteady flows at low Mach numbers, based on a preconditioning technique. The scheme satisfies the results of a single scale asymptotic analysis in a discrete sense and comprises the advantage that this can be derived by a slight modification of the dissipation term within the numerical flux function. Unfortunately, it can be observed by numerical experiments that the preconditioned approach combined with an explicit time integration scheme turns out to be unstable if the time step Dt does not satisfy the requirement to be O(M2) as the Mach number M tends to zero, whereas the corresponding standard method remains stable up to Dt=O(M), M to 0, which results from the well-known CFL-condition. We present a comprehensive mathematical substantiation of this numerical phenomenon by means of a von Neumann stability analysis, which reveals that in contrast to the standard approach, the dissipation matrix of the preconditioned numerical flux function possesses an eigenvalue growing like M-2 as M tends to zero, thus causing the diminishment of the stability region of the explicit scheme. Thereby, we present statements for both the standard preconditioner used by Guillard and Viozat [4] and the more general one due to Turkel [21]. The theoretical results are after wards confirmed by numerical experiments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

At many locations in Myanmar, ongoing changes in land use have negative environmental impacts and threaten natural ecosystems at local, regional and national scales. In particular, the watershed area of Inle Lake in eastern Myanmar is strongly affected by the environmental effects of deforestation and soil erosion caused by agricultural intensification and expansion of agricultural land, which are exacerbated by the increasing population pressure and the growing number of tourists. This thesis, therefore, focuses on land use changes in traditional farming systems and their effects on socio-economic and biophysical factors to improve our understanding of sustainable natural resource management of this wetland ecosystem. The main objectives of this research were to: (1) assess the noticeable land transformations in space and time, (2) identify the typical farming systems as well as the divergent livelihood strategies, and finally, (3) estimate soil erosion risk in the different agro-ecological zones surrounding the Inle Lake watershed area. GIS and remote sensing techniques allowed to identify the dynamic land use and land cover changes (LUCC) during the past 40 years based on historical Corona images (1968) and Landsat images (1989, 2000 and 2009). In this study, 12 land cover classes were identified and a supervised classification was used for the Landsat datasets, whereas a visual interpretation approach was conducted for the Corona images. Within the past 40 years, the main landscape transformation processes were deforestation (- 49%), urbanization (+ 203%), agricultural expansion (+ 34%) with a notably increase of floating gardens (+ 390%), land abandonment (+ 167%), and marshlands losses in wetland area (- 83%) and water bodies (- 16%). The main driving forces of LUCC appeared to be high population growth, urbanization and settlements, a lack of sustainable land use and environmental management policies, wide-spread rural poverty, an open market economy and changes in market prices and access. To identify the diverse livelihood strategies in the Inle Lake watershed area and the diversity of income generating activities, household surveys were conducted (total: 301 households) using a stratified random sampling design in three different agro-ecological zones: floating gardens (FG), lowland cultivation (LL) and upland cultivation (UP). A cluster and discriminant analysis revealed that livelihood strategies and socio-economic situations of local communities differed significantly in the different zones. For all three zones, different livelihood strategies were identified which differed mainly in the amount of on-farm and off-farm income, and the level of income diversification. The gross margin for each household from agricultural production in the floating garden, lowland and upland cultivation was US$ 2108, 892 and 619 ha-1 respectively. Among the typical farming systems in these zones, tomato (Lycopersicon esculentum L.) plantation in the floating gardens yielded the highest net benefits, but caused negative environmental impacts given the overuse of inorganic fertilizers and pesticides. The Revised Universal Soil Loss Equation (RUSLE) and spatial analysis within GIS were applied to estimate soil erosion risk in the different agricultural zones and for the main cropping systems of the study region. The results revealed that the average soil losses in year 1989, 2000 and 2009 amounted to 20, 10 and 26 t ha-1, respectively and barren land along the steep slopes had the highest soil erosion risk with 85% of the total soil losses in the study area. Yearly fluctuations were mainly caused by changes in the amount of annual precipitation and the dynamics of LUCC such as deforestation and agriculture extension with inappropriate land use and unsustainable cropping systems. Among the typical cropping systems, upland rainfed rice (Oryza sativa L.) cultivation had the highest rate of soil erosion (20 t ha-1yr-1) followed by sebesten (Cordia dichotoma) and turmeric (Curcuma longa) plantation in the UP zone. This study indicated that the hotspot region of soil erosion risk were upland mountain areas, especially in the western part of the Inle lake. Soil conservation practices are thus urgently needed to control soil erosion and lake sedimentation and to conserve the wetland ecosystem. Most farmers have not yet implemented soil conservation measures to reduce soil erosion impacts such as land degradation, sedimentation and water pollution in Inle Lake, which is partly due to the low economic development and poverty in the region. Key challenges of agriculture in the hilly landscapes can be summarized as follows: fostering the sustainable land use of farming systems for the maintenance of ecosystem services and functions while improving the social and economic well-being of the population, integrated natural resources management policies and increasing the diversification of income opportunities to reduce pressure on forest and natural resources.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introducción: El Síndrome de intestino irritable (SII) es de las patologías gastrointestinales más frecuentes a nivel mundial y de difícil manejo y control, con una prevalencia actual del 14% de acuerdo con los criterios ROMA II en Colombia, con tendencia al aumento. Su origen es multifactorial y no se ha logrado establecer un origen común, se ha encontrado asociación entre el SII y la presencia de ansiedad y depresión. Metodología: Estudio de corte transversal con componente exploratorio de la asociación de ansiedad y depresión con SII; muestra consecutiva de 315 pacientes que se calculó mediante stat calc epi info tomando una prevalencia del 14%, con un número de pacientes esperados de 1200 al mes. Se seleccionaron los pacientes que asisten a consulta de gastroenterología de la IPS CAFAM entre el 8 y el 29 de noviembre de 2010, se les aplicó la encuesta para medir factores sociodemográficos, establecer diagnóstico de SII mediante criterios Roma III y escala ZUNG para depresión y ansiedad. El análisis estadístico se realizó utilizando los programas SPSS versión 18.0 y EPI INFO versión 3.5.1 Resultados: La prevalencia del SII en los pacientes de la consulta de gastroenterología fue del 23% (n 63), con IC 95% (18%-28%). Se hallo una asociación significativa entre el género femenino (p:0.035),el grupo de edad de 31 a 55 (p: 0.043), y una fuerte asociación entre depresión severa y el síndrome de intestino irritable (p: 0.08). No se encontró asociación entre el SII y la ansiedad. Discusión: Existen factores de riesgo asociados a la presencia SII, como el género, la edad y la depresión severa documentados en la literatura (22). Se observó que la depresión severa está asociada significativamente con el SII, no así la ansiedad en ninguna de sus presentaciones; es necesario realizar estudios posteriores, que contribuyan a verificar la existencia y fuerza de dicha asociación y así aportar mayor evidencia que permita incentivar y fomentar el manejo multidisciplinario de la depresión en los pacientes con SII. Palabras clave: Síndrome de Intestino Irritable, Ansiedad, Desordenes de ansiedad, Depresión.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proceso administrativo y de compras de OPL Carga tiene algunas falencias entre ellas: fallas en la Comunicación entre el personal operativo, no se realizan llamadas internas usando con frecuencia el email, produciendo la saturación de solicitudes las cuales terminan sin ser resueltas en cuanto a roles se refiere, no hay enfoque de procesos en vista que no se tiene claras las tareas de cada cargo, adicionalmente no hay claridad en los subprocesos, perjudicando el proceso con el aumento de costos, pérdida de tiempo, las responsabilidades de los funcionario no todas las veces se ejecutan en el tiempo asignado, el liderazgo compartido presenta ambigüedades. Objetivos: Definir el trabajo en equipo en el proceso administrativo y de compras en OPL carga de Bucaramanga. La investigación que a realizar es de tipo descriptivo, busca descubrir las falencias o características que permiten diseñar y desarrollar un modelo de solución para los problemas del equipo de OPL Carga S.A.S. Materiales y métodos: La investigación efectuada es de tipo descriptivo, el objetivo es definir el modelo del trabajo en equipo y describir las falencias en el proceso administrativo y de compras en OPL carga de Bucaramanga, que permitan obtener un diagnóstico integral que conlleve a la implementación de estrategias de solución. Resultados: Se identificaron las falencias en los siguientes aspectos: Variable comunicación, rendimiento, destrezas complementarias, propósito significativo y meta específicas de los funcionarios en OPL carga sección administrativa. Conclusiones: El modelo de trabajo en equipo que OPL aplica es jerárquico, en el que se ofrece estabilidad, seguridad, se toman decisiones en forma piramidal, mediante la planeación de tareas, la colaboración, igualdad y respeto por los miembros, trabajando en pro de la solución de problemas. Se construyó un plano conceptual que permitió exponer la interpretación que la estudiante tiene de las teorías, investigaciones y antecedentes válidos para la comprensión del problema investigado. Área comunicacional: Coordinar acciones tendientes para que los funcionarios respondan a tiempo los emails atenientes a su trabajo. Área condiciones de trabajo: Clarificar y diseñar las reglas de comportamiento al interior de los equipos de trabajo que redunden en el mejoramiento del mismo y la búsqueda de soluciones oportunas. Área metas específicas: Procurar mediante auditorías el cumplimiento de las metas y objetivos propuestos por cada equipo de trabajo.