900 resultados para Variables from CGTMSE


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The application of Discriminant function analysis (DFA) is not a new idea in the studyof tephrochrology. In this paper, DFA is applied to compositional datasets of twodifferent types of tephras from Mountain Ruapehu in New Zealand and MountainRainier in USA. The canonical variables from the analysis are further investigated witha statistical methodology of change-point problems in order to gain a betterunderstanding of the change in compositional pattern over time. Finally, a special caseof segmented regression has been proposed to model both the time of change and thechange in pattern. This model can be used to estimate the age for the unknown tephrasusing Bayesian statistical calibration

Relevância:

80.00% 80.00%

Publicador:

Resumo:

AimTo identify the bioclimatic niche of the endangered Andean cat (Leopardus jacobita), one of the rarest and least known felids in the world, by developing a species distribution model.LocationSouth America, High Andes and Patagonian steppe. Peru, Bolivia, Chile, Argentina.MethodsWe used 108 Andean cat records to build the models, and 27 to test them, applying the Maxent algorithm to sets of uncorrelated bioclimatic variables from global databases, including elevation. We based our biogeographical interpretations on the examination of the predicted geographic range, the modelled response curves and latitudinal variations in climatic variables associated with the locality data.ResultsSimple bioclimatic models for Andean cats were highly predictive with only 3-4 explanatory variables. The climatic niche of the species was defined by extreme diurnal variations in temperature, cold minimum and moderate maximum temperatures, and aridity, characteristic not only of the Andean highlands but also of the Patagonian steppe. Argentina had the highest representation of suitable climates, and Chile the lowest. The most favourable conditions were centrally located and spanned across international boundaries. Discontinuities in suitable climatic conditions coincided with three biogeographical barriers associated with climatic or topographic transitions.Main conclusionsSimple bioclimatic models can produce useful predictions of suitable climatic conditions for rare species, including major biogeographical constraints. In our study case, these constraints are also known to affect the distribution of other Andean species and the genetic structure of Andean cat populations. We recommend surveys of areas with suitable climates and no Andean cat records, including the corridor connecting two core populations. The inclusion of landscape variables at finer scales, crucially the distribution of Andean cat prey, would contribute to refine our predictions for conservation applications.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The goal of this article is to map out public perceptions of animal experimentation in 28 European countries. Postulating cross-cultural differences, this study mixes country-level variables (from the Eurostat database) and individual-level variables (from Eurobarometer Science and Technology 2010). It is shown that experimentation on animals such as mice is generally accepted in European countries, but perceptions are divided on dogs and monkeys. Between 2005 and 2010, we observe globally a change of approval on dogs and monkeys, with a significant decrease in nine countries. Multilevel analysis results show differences at country level (related to a post-industrialism model) and at individual level (related to gender, age, education, proximity and perceptions of science and the environment). These results may have consequences for public perceptions of science and we call for more cross-cultural research on press coverage of animal research and on the level of public engagement of scientists doing animal research

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé : Si la psychanalyse est régulièrement remise en cause pour son manque de fondement scientifique, de nombreux travaux issus des neurosciences en appellent paradoxalement à un retour aux thèses freudiennes. Cette étude se propose, dans ce contexte, de revisiter les bases neurobiologiques de la métapsychologie et de montrer comment celle-ci repose sur une conception homéostatique du vivant. On en tire plusieurs conséquences. Premièrement, contre Brentano, selon qui l'intentionnalité est la marque du psychologique, on propose que celle-ci s'avère être, plus originellement, la marque des régulations biologiques. Deuxièmement, on montre comment Freud et Damasio développent des conceptions similaires sur le fonctionnement homéostatique de la cognition. Sur le plan épistémologique, on plaide en faveur de la complémentarité de ces deux approches. Si Damasio met au jour les variables somatiques permettant de mesurer les effets de la vie psychique, la théorie pulsionnelle permet de dépasser les problèmes liés à l'ambiguïté de la notion de «représentation cérébrale ». C'est à partir de cette thèse que l'on peut, selon nous, appréhender la psychanalyse comme un double projet visant à articuler une naturalisation de l'appareil psychique à une herméneutique de ses productions. On considère cette double visée comme une réponse à la difficulté centrale que rencontrent les sciences de l'esprit quant aux conditions de possibilité d'une naturalisation de l'intentionnalité. A partir de cette problématique, il devient pertinent d'évaluer la solution freudienne à la lumière de la posture intentionnelle dennettienne et de la théorie gazzaniguienne de l'interpreter. II ne s'agit pas, selon ces dernières approches, de naturaliser directement l'intentionnalité, au risque de commettre une erreur de catégorie. Il est question, au contraire, d'utiliser les principes du fonctionnement homéostatique comme autant de «règles »interprétatives permettant, sur le plan psychologique, de construire du sens. On trouve enfin dans le modèle de l'espace global de travail un moyen de remettre au goût du jour la conception freudienne, dynamique et conflictuelle, du fonctionnement psychique. On avance enfin, à partir de ce modèle, des hypothèses sur les mécanismes cérébraux susceptibles de sous-tendre l'efficacité thérapeutique de la cure analytique. Abstract : While Psychoanalysis' scientific basis is open to question, some neuroscience works are paradoxically calling for a return to Freud. Therefore, the first aim of our study consists in revisiting metapychology's neurobiological roots and to show how it is grounded on a homeostatic theory of life. Several consequences can be drawn from this statement. Firstly, in opposition to Brentanian definition of intentionality, as the specific mark of psychology, we argue that it is more specifically the mark of biological balance. Secondly, this statement allows to show how Freud's and Damasio's theories share common views on the homeostatic functioning of cognition. From an epistemological point of view, they complete one another. If Damasio has highlighted the measurable somatic variables from which we can infer psychic life, the theory of drives allows conceptual difficulties linked to the use of the ambiguous notion of "cerebral representation" to be overcome. According to us, this thesis leads psychoanalysis to be approached as a twin project aiming to articulate psyche naturalization, to a hermeneutic of its productions. It maybe seen as a way to respond to the central issue of mind sciences, that is, to account for the naturalization of intentionality. Given this theoretical framework, it seems relevant to reconsider freudism in the light of the dennettian intentional stance and the gazzanigan theory of interpreter. Then, freudism can be seen as a way to avoid a category mistake. Its solution rejects direct intentionality naturalization in favor of a construction of sense. In this framework, interpretation is regulated by the rules abstracted from the homeostatic functioning of life. Furthermore, we show how the dynamic and conflictual Freudian psyche can be evaluated using the Global workspace model, which allows us to put forth hypotheses on the cerebral mechanisms that may underlie the efficiency of analytical cure.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En los últimos 30 años la proliferación de modelos cuantitativos de predicción de la insolvencia empresarial en la literatura contable y financiera ha despertado un gran interés entre los especialistas e investigadores de lamateria. Lo que en un principio fueron unos modelos elaborados con un único objetivo, han derivado en una fuente de investigación constante.En este documento se formula un modelo de predicción de la insolvencia a través de la combinación de diferentes variables cuantitativas extraídas de los estados contables de una muestra de empresas para los años 1994-1997. A través de un procedimiento por etapas se selecciona e interpreta cuáles son las más relevantes en cuanto a aportación de información.Una vez formulado este primer tipo de modelos se busca una alternativa a las variables anteriores a través de la técnica factorial del análisis de componentes principales. Con ella se hace una selección de variables y se aplica, junto conlos ratios anteriores, el análisis univariante. Por último, se comparan los modelos obtenidos y se concluye que aunque la literatura previa ofrece mejores porcentajes de clasificación, los modelos obtenidos a través del análisis decomponentes principales no deben ser rechazados por la claridad en la explicación de las causas que conducen a una empresa a la insolvencia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En los últimos 30 años la proliferación de modelos cuantitativos de predicción de la insolvencia empresarial en la literatura contable y financiera ha despertado un gran interés entre los especialistas e investigadores de lamateria. Lo que en un principio fueron unos modelos elaborados con un único objetivo, han derivado en una fuente de investigación constante.En este documento se formula un modelo de predicción de la insolvencia a través de la combinación de diferentes variables cuantitativas extraídas de los estados contables de una muestra de empresas para los años 1994-1997. A través de un procedimiento por etapas se selecciona e interpreta cuáles son las más relevantes en cuanto a aportación de información.Una vez formulado este primer tipo de modelos se busca una alternativa a las variables anteriores a través de la técnica factorial del análisis de componentes principales. Con ella se hace una selección de variables y se aplica, junto conlos ratios anteriores, el análisis univariante. Por último, se comparan los modelos obtenidos y se concluye que aunque la literatura previa ofrece mejores porcentajes de clasificación, los modelos obtenidos a través del análisis decomponentes principales no deben ser rechazados por la claridad en la explicación de las causas que conducen a una empresa a la insolvencia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The present research deals with an application of artificial neural networks for multitask learning from spatial environmental data. The real case study (sediments contamination of Geneva Lake) consists of 8 pollutants. There are different relationships between these variables, from linear correlations to strong nonlinear dependencies. The main idea is to construct a subsets of pollutants which can be efficiently modeled together within the multitask framework. The proposed two-step approach is based on: 1) the criterion of nonlinear predictability of each variable ?k? by analyzing all possible models composed from the rest of the variables by using a General Regression Neural Network (GRNN) as a model; 2) a multitask learning of the best model using multilayer perceptron and spatial predictions. The results of the study are analyzed using both machine learning and geostatistical tools.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The Iowa Department of Transportation (DOT) is continually improving the pavement management program and striving to reduce maintenance needs. Through a 1979 pavement management study, the Iowa DOT became a participant in a five state Federal Highway Administration (FHWA) study of "Transverse Cracking of Asphalt Pavements". There were numerous conclusions and recommendations but no agreement as to the major factors contributing to transverse cracking or methods of preventing or reducing the occurrence of transverse cracking. The project did focus attention on the problem and generated ideas for research. This project is one of two state funded research projects that were a direct result of the FHWA project. Iowa DOT personnel had been monitoring temperature susceptibility of asphalt cements by the Norman McLeod Modified Penetration Index. Even though there are many variables from one asphalt mix to another, the trend seemed to indicate that the frequency of transverse cracking was highly dependent on the temperature susceptibility. Research project HR-217 "Reducing the Adverse Effects of Transverse Cracking" was initiated to verify the concept. A final report has been published after a four-year evaluation. The crack frequency with the high temperature susceptible asphalt cement was substantially greater than for the low temperature susceptible asphalt cement. An increased asphalt cement content in the asphalt treated base also reduced the crack frequency. This research on prevention of transverse cracking with fabric supports the following conclusions: 1. Engineering fabric does not prevent transverse cracking of asphalt cement concrete. 2. Engineering fabric may retard the occurrence of transverse cracking. 3. Engineering fabric does not contribute significantly to the structural capability of an asphalt concrete pavement.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Background: Modelling epidemiological knowledge in validated clinical scores is a practical mean of integrating EBM to usual care. Existing scores about cardiovascular disease have been largely developed in emergency settings, but few in primary care. Such a toll is needed for general practitioners (GP) to evaluate the probability of ischemic heart disease (IHD) in patients with non-traumatic chest pain. Objective: To develop a predictive model to use as a clinical score for detecting IHD in patients with non-traumatic chest-pain in primary care. Methods: A post-hoc secondary analysis on data from an observational study including 672 patients with chest pain of which 85 had IHD diagnosed by their GP during the year following their inclusion. Best subset method was used to select 8 predictive variables from univariate analysis and fitted in a multivariate logistic regression model to define the score. Reliability of the model was assessed using split-group method. Results: Significant predictors were: age (0-3 points), gender (1 point), having at least one cardiovascular risks factor (hypertension, dyslipidemia, diabetes, smoking, family history of CVD; 3 points), personal history of cardiovascular disease (1 point), duration of chest pain from 1 to 60 minutes (2 points), substernal chest pain (1 point), pain increasing with exertion (1 point) and absence of tenderness at palpation (1 point). Area under the ROC curve for the score was of 0.95 (IC95% 0.93; 0.97). Patients were categorised in three groups, low risk of IHD (score under 6; n = 360), moderate risk of IHD (score from 6 to 8; n = 187) and high risk of IHD (score from 9-13; n = 125). Prevalence of IHD in each group was respectively of 0%, 6.7%, 58.5%. Reliability of the model seems satisfactory as the model developed from the derivation set predicted perfectly (p = 0.948) the number of patients in each group in the validation set. Conclusion: This clinical score based only on history and physical exams can be an important tool in the practice of the general physician for the prediction of ischemic heart disease in patients complaining of chest pain. The score below 6 points (in more than half of our population) can avoid demanding complementary exams for selected patients (ECG, laboratory tests) because of the very low risk of IHD. Score above 6 points needs investigation to detect or rule out IHD. Further external validation is required in ambulatory settings.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Societies exchange knowledge, ideas and merchandise throughout their territories. Topography plays a fundamental role in the trajectory of such movements whilst helping to explain the distribution of human constructions. Standard GIS functions have been employed widely to simulate communication routes between settlements, but the straight application of published least cost route models proved inadequate for Mediterranean alluvial plain areas in which seasonal floods become an important factor to acknowledge. The objective of this study is the production of a new model, using topographic and hydrologic factors as variables from which it would be possible to simulate a route, and test it against known Roman itineraries. The selected Roman stretches are Girona – Coll de Pannisars and Tarragona – Montblanc. The new model shows the need to consider each case individually but also stresses the hydrologic factor, expressed in seasonal floods, as being of prime importance in the creation and development of Roman roads in Mediterranean alluvial plains.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This thesis presents a software that allows data acquisition production process, in this case, an automatic pallet nailing line. The recording of these data will enable them to make a track and analyze them later, either with the analytical tools of the application or by the transfer of such data to an Excel sheet or database. The programming language has been developed made by Ladder for the application in the PLC that controls the line of nailing. Control pages for the HMI application that monitors the process. Finally, the Visual Basic language for the production department computer application. To extract production variables from the process, the developed software communicates with the network formed by the PLC and the HMI terminal which stores and control the process using the Modbus TCP/IP protocol.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The process of building mathematical models in quantitative structure-activity relationship (QSAR) studies is generally limited by the size of the dataset used to select variables from. For huge datasets, the task of selecting a given number of variables that produces the best linear model can be enormous, if not unfeasible. In this case, some methods can be used to separate good parameter combinations from the bad ones. In this paper three methodologies are analyzed: systematic search, genetic algorithm and chemometric methods. These methods have been exposed and discussed through practical examples.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this study, water uptake by poultry carcasses during cooling by water immersion was modeled using artificial neural networks. Data from twenty-five independent variables and the final mass of the carcass were collected in an industrial plant to train and validate the model. Different network structures with one hidden layer were tested, and the Downhill Simplex method was used to optimize the synaptic weights. In order to accelerate the optimization calculus, Principal Component Analysis (PCA) was used to preprocess the input data. The obtained results were: i) PCA reduced the number of input variables from twenty-five to ten; ii) the neural network structure 4-6-1 was the one with the best result; iii) PCA gave the following order of importance: parameters of mass transfer, heat transfer, and initial characteristics of the carcass. The main contributions of this work were to provide an accurate model for predicting the final content of water in the carcasses and a better understanding of the variables involved.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nous avons développé un modèle qui cherche à identifier les déterminants des trajectoires scolaires des élèves universitaires en articulant deux perspectives théoriques et en utilisant une approche méthodologique mixte en deux phases : quantitative et qualitative. La première phase est basée sur le modèle de Tinto (1992) avec l'incorporation d'autres variables de Crespo et Houle (1995). Cette étape a atteint deux objectifs. Dans le premier, on a identifié les différences entre les variables exogènes (indice économique, l'éducation parentale, moyen au lycée et moyenne dans l’examen d'entrée) et trois types de trajectoires: la persévérante, de décalage et d’abandon. Cette phase était basée sur les données d'un sondage administré à 800 étudiants à l'Université de Sonora (Mexique). Les résultats montrent que ceux qui ont quitté l'institution ont obtenu des scores significativement plus bas sur les variables exogènes. Le deuxième objectif a été atteint pour les trajectoires persévérantes et de décalage, en établissant que les étudiants ont une plus grande chance d’être persévérants lorsqu’ils présentent de meilleurs scores dans deux variables exogènes (l'examen d'entrée et être de genre féminin) et quatre viable endogènes (haute intégration académique, de meilleures perspectives d'emploi, ont une bourse). Dans la deuxième phase nous avons approfondi la compréhension (Verstehen) des processus d'articulation entre l'intégration scolaire et sociale à travers de trois registres proposés par Dubet (2005): l'intégration, le projet et la vocation. Cette phase a consisté dans 30 interviews avec étudiantes appartenant aux trois types de trajectoire. À partir du travail de Bourdages (1994) et Guzman (2004), nous avons cherché le sens de l'expérience attribuée par les étudiants au processus éducatif. Les résultats révèlent cinq groupes d’étudiantes avec des expériences universitaires identifiables : ceux qui ont une intégration académique et sociale plus grande, les femmes travailleuses intégrées académiquement, ceux qui ont les plus grandes désavantages économiques et d’intégration scolaire, ceux qui ont cherché leur vocation dans un autre établissement et ceux qui n'ont pas poursuivi leurs études. L'utilisation de différents outils statistiques (analyse de corrélation, analyse de régression logistique et analyse des conglomérats) dans la première phase a permis d’identifier des variables clés dans chaque type de trajectoire, lesquelles ont été validées avec les résultats de la phase qualitative. Cette thèse, en plus de montrer l'utilité d'une approche méthodologique mixte, étend le modèle de Tinto (1987) et confirme l'importance de l'intégration scolaire pour la persévérance à l'université.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La collaboration constitue une stratégie efficace pour aider les organisations et les individus à évoluer dans des environnements dynamiques et complexes, et génère de nombreux avantages cognitifs, affectifs et pécuniaires. De plus en plus, les équipes de travail sont impliquées dans des collaborations complexes, lesquelles requièrent de transiger à travers les frontières nationales, organisationnelles et disciplinaires. Bien que les collaborations complexes soient de plus en plus courantes en milieux organisationnels et étudiées par les scientifiques, peu d’études empiriques ont été réalisées sur le sujet et la documentation inhérente est disséminée dans divers silos parallèles de connaissances, donnant lieu à des modèles conceptuels divergents et incomplets. L’importance croissante de ces formes de collaboration crée l’impératif scientifique et pratique d’en acquérir une meilleure compréhension ainsi que d’identifier et d’évaluer les conditions et les facteurs qui favorisent leur succès et leur efficacité. Cette thèse vise à combler les lacunes susmentionnées et permettre un avancement des connaissances sur le sujet par l’entremise de deux articles répondant à divers objectifs de recherche. Le premier article avance une définition claire des collaborations complexes, en vue de réduire la confusion entourant ce construit. Il présente également la première revue de documentation sur les facteurs favorisant le succès des collaborations complexes, unifiant les résultats issus de divers contextes et disciplines scientifiques. Cette démarche a permis d’identifier 14 variables clés provenant de 26 études empiriques. À partir de ces données, un modèle conceptuel fondé sur des assises théoriques solides et reconnues en psychologie du travail et des organisations est proposé, offrant ainsi un canevas systémique et dynamique du phénomène ainsi qu’une orientation détaillée des pistes de recherches pertinentes. Le deuxième article part des résultats obtenus dans le premier article afin d’évaluer empiriquement les relations entre certains facteurs clés ayant un impact sur des extrants importants de collaborations complexes. L’étude multiphasique est réalisée auprès de 16 équipes de projets (N=93) interdisciplinaires et interorganisationnelles prenant part à des sessions de travail intensives visant la production de concepts novateurs en design intégré lié au développement durable. Les analyses corrélationnelles montrent des liens positifs entre l’ouverture à la diversité, les processus collaboratifs, la viabilité, la performance d’équipe et la performance de projet, ainsi que des liens négatifs entre les conflits et ces mêmes extrants. De plus, les analyses de médiation multiple révèlent qu’une plus grande ouverture à la diversité influence positivement la viabilité, la performance d’équipe et la performance de projet en favorisant les processus collaboratifs efficaces et en réduisant les conflits. Les implications théoriques et pratiques découlant de ces résultats sont discutées.