960 resultados para stock mixture analysis


Relevância:

30.00% 30.00%

Publicador:

Resumo:

The human brainstem is a densely packed, complex but highly organised structure. It not only serves as a conduit for long projecting axons conveying motor and sensory information, but also is the location of multiple primary nuclei that control or modulate a vast array of functions, including homeostasis, consciousness, locomotion, and reflexive and emotive behaviours. Despite its importance, both in understanding normal brain function as well as neurodegenerative processes, it remains a sparsely studied structure in the neuroimaging literature. In part, this is due to the difficulties in imaging the internal architecture of the brainstem in vivo in a reliable and repeatable fashion. A modified multivariate mixture of Gaussians (mmMoG) was applied to the problem of multichannel tissue segmentation. By using quantitative magnetisation transfer and proton density maps acquired at 3 T with 0.8 mm isotropic resolution, tissue probability maps for four distinct tissue classes within the human brainstem were created. These were compared against an ex vivo fixated human brain, imaged at 0.5 mm, with excellent anatomical correspondence. These probability maps were used within SPM8 to create accurate individual subject segmentations, which were then used for further quantitative analysis. As an example, brainstem asymmetries were assessed across 34 right-handed individuals using voxel based morphometry (VBM) and tensor based morphometry (TBM), demonstrating highly significant differences within localised regions that corresponded to motor and vocalisation networks. This method may have important implications for future research into MRI biomarkers of pre-clinical neurodegenerative diseases such as Parkinson's disease.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper studies the relationship between the amount of publicinformation that stock market prices incorporate and the equilibriumbehavior of market participants. The analysis is framed in a static, NREEsetup where traders exchange vectors of assets accessing multidimensionalinformation under two alternative market structures. In the first(the unrestricted system), both informed and uninformed speculators cancondition their demands for each traded asset on all equilibrium prices;in the second (the restricted system), they are restricted to conditiontheir demand on the price of the asset they want to trade. I show thatinformed traders incentives to exploit multidimensional privateinformation depend on the number of prices they can condition upon whensubmitting their demand schedules, and on the specific price formationprocess one considers. Building on this insight, I then give conditionsunder which the restricted system is more efficient than the unrestrictedsystem.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper discusses the analysis of cases in which the inclusion or exclusion of a particular suspect, as a possible contributor to a DNA mixture, depends on the value of a variable (the number of contributors) that cannot be determined with certainty. It offers alternative ways to deal with such cases, including sensitivity analysis and object-oriented Bayesian networks, that separate uncertainty about the inclusion of the suspect from uncertainty about other variables. The paper presents a case study in which the value of DNA evidence varies radically depending on the number of contributors to a DNA mixture: if there are two contributors, the suspect is excluded; if there are three or more, the suspect is included; but the number of contributors cannot be determined with certainty. It shows how an object-oriented Bayesian network can accommodate and integrate varying perspectives on the unknown variable and how it can reduce the potential for bias by directing attention to relevant considerations and distinguishing different sources of uncertainty. It also discusses the challenge of presenting such evidence to lay audiences.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Adult-type rhabdomyosarcoma (RMS) has been classically defined as a pleomorphic sarcoma with desmin expression occurring in adult patients. To reevaluate this entity, we analyzed a series of 57 cases using immunohistochemistry for desmin, myogenin, alpha smooth muscle actin, h-caldesmon, pankeratin AE1/AE3, epithelial membrane antigen (EMA), S100 protein, CD34, MDM2, and CDK4. In this series, there were 36 men and 21 women aged from 22 to 87 years (median: 59). Tumors were mainly located in the lower limbs (27 cases), trunk wall (15 cases), and upper limbs (10 cases). Most tumors were deeply located (51/54) with a size from 1 to 30 cm (median: 8 cm). Cases were classified in 3 histologic categories: spindle cell RMS (25 cases), pleomorphic RMS (16 cases), and mixed type (16 cases). Forty-one tumors were grade 3 and 16 grade 2. Immunohistochemistry showed that every case was positive for desmin and myogenin. Alpha smooth muscle actin was positive in 21%, pankeratin AE1/AE3 in 20%, and CD34 in 13.2%. Treatment modalities and follow-up were available in 46 cases. Median follow-up was 60.9 months. Eight patients developed a local recurrence and 16 a distant metastasis with a 5-year overall survival rate of 52.6% and a 5-year metastasis-free survival of 62.9%. The only predictive factor for metastasis was histologic grade. In conclusion, adult-type RMS is a rare sarcoma occurring mainly in the extremities and trunk wall with 2 main histologic patterns, spindle cell, and pleomorphic patterns, which represent the end of the spectrum of a single entity.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The development of new rail systems in the first part of the 21st century is the result of a wide range of trends that are making it increasingly difficult to maintain regional mobility using the two dominant intercity travel modes, auto and air. These trends include the changing character of the economic structure of industry. The character of the North American industrial structure is moving rapidly from a manufacturing base to a service based economy. This is increasing the need for business travel while the increase in disposable income due to higher salaries has promoted increased social and tourist travel. Another trend is the change in the regulatory environment. The trend towards deregulation has dramatically reduced the willingness of the airlines to operate from smaller airports and the level of service has fallen due to the creation of hub and spoke systems. While new air technology such as regional jets may mitigate this trend to some degree in medium-size airports, smaller airports will continue to lose out. Finally, increasing environmental concerns have reduced the ability of the automobile to meet intercity travel needs because of increased suburban congestion and limited highway capacity in big cities. Against this background the rail mode offers new options due to first, the existing rail rights-of-way offering direct access into major cities that, in most cases, have significant capacity available and, second, a revolution in vehicle technology that makes new rail rolling stock faster and less expensive to purchase and operate. This study is designed to evaluate the potential for rail service making an important contribution to maintaining regional mobility over the next 30 to 50 years in Iowa. The study evaluates the potential for rail service on three key routes across Iowa and assesses the impact of new train technology in reducing costs and improving rail service. The study also considers the potential for developing the system on an incremental basis. The service analysis and recommendations do not involve current Amtrak intercity service. That service is presumed to continue on its current route and schedule. The study builds from data and analyses that have been generated for the Midwest Rail Initiative (MWRI) Study. For example, the zone system and operating and capital unit cost assumptions are derived from the MWRI study. The MWRI represents a cooperative effort between nine Midwest states, Amtrak and the Federal Railroad Administration (FRA) contracting with Transportation Economics & Management Systems, Inc. to evaluate the potential for a regional rail system. The 1 The map represents the system including the decision on the Iowa route derived from the current study. Iowa Rail Route Alternatives Analysis TEMS 1-2 system is to offer modern, frequent, higher speed train service to the region, with Chicago as the connecting hub. Exhibit 1-1 illustrates the size of the system, and how the Iowa route fits in to the whole.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

PURPOSE: The aim of this study was to determine outcomes of total hip replacement (THR) with the Lemania cemented femoral stem. METHODS: A total of 78 THR patients were followed and compared to 17 "fit", healthy, elderly and 72 "frail" elderly subjects without THR, using clinical outcome measures and a portable, in-field gait analysis device at five and ten years follow-up. RESULTS: Forty-one patients (53%), mean age 83.4 years, available at ten years follow-up, reported very good to excellent satisfaction. Mean Harris Hip and Western Ontario and McMaster Universities Osteoarthritis Index (WOMAC) scores were 81.2 and 10.5 points, respectively, with excellent radiological preservation of proximal femur bone stock. Spatial and temporal gait parameters were close to the fit group and better than the frail group. CONCLUSIONS: Lemania THR demonstrated very good, stable clinical and radiological results at ten years in an older patient group, comparable to other cemented systems for primary THR. Gait analysis confirmed good walking performance in a real-life environment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissolved organic matter (DOM) is a complex mixture of organic compounds, ubiquitous in marine and freshwater systems. Fluorescence spectroscopy, by means of Excitation-Emission Matrices (EEM), has become an indispensable tool to study DOM sources, transport and fate in aquatic ecosystems. However the statistical treatment of large and heterogeneous EEM data sets still represents an important challenge for biogeochemists. Recently, Self-Organising Maps (SOM) has been proposed as a tool to explore patterns in large EEM data sets. SOM is a pattern recognition method which clusterizes and reduces the dimensionality of input EEMs without relying on any assumption about the data structure. In this paper, we show how SOM, coupled with a correlation analysis of the component planes, can be used both to explore patterns among samples, as well as to identify individual fluorescence components. We analysed a large and heterogeneous EEM data set, including samples from a river catchment collected under a range of hydrological conditions, along a 60-km downstream gradient, and under the influence of different degrees of anthropogenic impact. According to our results, chemical industry effluents appeared to have unique and distinctive spectral characteristics. On the other hand, river samples collected under flash flood conditions showed homogeneous EEM shapes. The correlation analysis of the component planes suggested the presence of four fluorescence components, consistent with DOM components previously described in the literature. A remarkable strength of this methodology was that outlier samples appeared naturally integrated in the analysis. We conclude that SOM coupled with a correlation analysis procedure is a promising tool for studying large and heterogeneous EEM data sets.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tutkimuksen tavoitteena on analysoida 74 sellu- ja paperiyrityksen taloudellista suorituskykyä kannattavuutta, maksuvalmiutta, vakavaraisuutta ja arvonluontikykyä kuvaavilla tunnusluvuilla. Tutkimuksen teoriaosa esittelee liiketoiminta-analyysin välineet, jonka jälkeen esitellään taloudelliset tunnusluvut. Empiriaosassa käydään läpi vuoden 2005 tunnusluvut yritystasolla. Jotta voidaan tarkastella tunnuslukujen muutoksia pitkällä aikavälillä, yritykset ryhmitellään maantieteellisen sijainnin sekä liiketoimintaorientaation mukaan. Tutkimus on kuvaileva. Tunnusluvuista voidaan todeta sellu- ja paperiteollisuudessa meneillään oleva toimialan rakennemuutos. Eteläamerikkalaiset yritykset, jotka hyötyvät uudesta ja kustannustehokkaasta raaka-aineesta, ovat siirtyneet lähemmäs arvonluontia, kun taas suurin osa pohjoisamerikkalaisista yrityksistä, jotka olivat toimialan johtavia arvonluojia, ovat nyt arvon tuhoajia. Toimiala kärsii myös alhaisesta kannattavuudesta, joka vaikuttaa eniten pohjoisamerikkalaisiin yrityksiin. Samaan aikaan eteläamerikkalaiset yritykset ovat nostaneet kannattavuuttaan, mikä puolestaan korostaa meneillään olevaa muutosta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A collaborative study on Raman spectroscopy and microspectrophotometry (MSP) was carried out by members of the ENFSI (European Network of Forensic Science Institutes) European Fibres Group (EFG) on different dyed cotton fabrics. The detection limits of the two methods were tested on two cotton sets with a dye concentration ranging from 0.5 to 0.005% (w/w). This survey shows that it is possible to detect the presence of dye in fibres with concentrations below that detectable by the traditional methods of light microscopy and microspectrophotometry (MSP). The MSP detection limit for the dyes used in this study was found to be a concentration of 0.5% (w/w). At this concentration, the fibres appear colourless with light microscopy. Raman spectroscopy clearly shows a higher potential to detect concentrations of dyes as low as 0.05% for the yellow dye RY145 and 0.005% for the blue dye RB221. This detection limit was found to depend both on the chemical composition of the dye itself and on the analytical conditions, particularly the laser wavelength. Furthermore, analysis of binary mixtures of dyes showed that while the minor dye was detected at 1.5% (w/w) (30% of the total dye concentration) using microspectrophotometry, it was detected at a level as low as 0.05% (w/w) (10% of the total dye concentration) using Raman spectroscopy. This work also highlights the importance of a flexible Raman instrument equipped with several lasers at different wavelengths for the analysis of dyed fibres. The operator and the set up of the analytical conditions are also of prime importance in order to obtain high quality spectra. Changing the laser wavelength is important to detect different dyes in a mixture.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Euroopan unionissa päätettiin jo yli vuosikymmen sitten, että rautatieliiketoiminta vapautetaan kilpailulle. Iso-Britanniasta olimäärä tulla esimerkkivaltio tämän prosessin käyttöönotossa. Pääideana oli säännöstelyn keventäminen, jolloin omistuspohja toimialalla laajenee ja rautateiden infrastruktuuri sekä toiminta parantuvat. Infrastruktuuri on määrä olla yhden organisaation hallinnassa ja raiteiden käyttöoikeus on kaikilla lupaehdot täyttävillä operaattoreilla, jotka kilpailevat keskenään matkustajista ja tavararahdeista. Kuitenkin Yhdysvalloissa ja eräissä Latinalaisen Amerikan maissa kilpailu on vapautettu siten, että rautatieyritys omistaa raideinfrastruktuurin, junat, tavarankuljetus- sekä matkustajavaunut. Iso-Britannian yksityistämistä pidettiin aluksi isonaepäonnistumisena: nopealla aikataululla sovellettiin jäykkiä transaktioperusteisia ulkoistamisstrategioita infrastruktuurin kunnossapitoon, jotka lopulta johtivat junien jatkuviin myöhästymisiin ja muutamaan tuhoisaan onnettomuuteen. Liiketoiminnallisessa mielessäkään ei oikein onnistuttu: infrastruktuurista vastaava yritys jouduttiin listaamaan pois Lontoon pörssistä, ja hallituksen oli pakko luoda tukipaketti pahasti velkaantuneen, vain marginaalisien investointien kohteena olleen yrityksen toimintaa varten (vaikka kapasiteettitarvetta oli markkinoilla). Myös rautatieoperaattorit olivat taloudellisessa ahdingossa ja vain määrätietoisten hallituksen laatimien pelastuspakettien avulla ala nousi syvimmästä kriisistään. Tästä huolimatta näiden negatiivisten sivuvaikutusten ohella koko ala pystyi kasvattamaan kysyntää, niin matkustaja- kuin rahtiliikenteenkin osalta. Vähenevän kysynnän trendi, joka alkoi 1970-luvulla, otti käännöksen parempaan. Toinen eurooppalaismaa, jolla on pitkät kokemukset yksityistämisestä, on Ruotsi. Tämä maatapaus on melko konservatiivinen verrattuna tilanteeseen edellisessä; vain rajattu määrä reittejä on avattu kilpailulle ja sopimukset tehdään kerralla pitkäksi aikaa eteenpäin. Ruotsin säännöstelyn purku osoittautui menestykseksi, koska tuottavuus onollut vakaassa kasvussa ja rautateiden markkinaosuus erityisesti matkustajapuolella on noussut merkittävästi, verrattuna muihin kuljetusmuotoihin. Kuitenkin kilpailua on käytännössä vähän tässä maassa ja parempiatuloksia on lupa odottaa, kun vain säännöstelyn purkaminen jatkuu. Viimeinen tutkimuksemme kohteena oleva maa on Yhdysvallat, joka alistutti rautatiet kilpailulle jo 1980-luvun alussa, käyttäen jo edellä mainittua vertikaalista integraatiota; tämä valinta on taas johtanut hyvin erilaisiin tuloksiin. Vaihtoehtoinen rakenteellinen uudistustapa on suosinut rahtivirtoja matkustajiin nähden, ja lopputuloksena tämä tapaus synnytti yrityksiä huolehtimaan toista näistä kahdesta pääasiakasryhmästä. Viimeaikaiset tulokset tästä yksityistämisprosessista ovat olleet hyviä: jäljellejääneiden yritysten voitot ovat kasvaneet, osinkoja ollaan kyetty jakamaan ja osakkeiden arvostus on noussut. Tässä tutkimusraportissa yritämme kolmen maatapauksen kautta esittää, miten yksityistämisprosessi tulee vaikuttamaan Euroopassa, kun kilpailu rautateillä vapautuu. Me käymmeläpi, mikä näistä kolmesta maaesimerkistä on kaikkein todennäköisin jaesitämme ehdotuksia siihen, miten valtiot voisivat välttää ei-haluttuja sivuvaikutuksia. Kolme maaesimerkkiä, ja lopuksi esitetty lyhyt tilastollinen analyysi osoittavat, että rautateillä on tulevaisuuden potentiaalia Euroopassa, ja kilpailun vapauttaminen on avain tämän potentiaalin realisointiin.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The dynamical properties ofshaken granular materials are important in many industrial applications where the shaking is used to mix, segregate and transport them. In this work asystematic, large scale simulation study has been performed to investigate the rheology of dense granular media, in the presence of gas, in a three dimensional vertical cylinder filled with glass balls. The base wall of the cylinder is subjected to sinusoidal oscillation in the vertical direction. The viscoelastic behavior of glass balls during a collision, have been studied experimentally using a modified Newton's Cradle device. By analyzing the results of the measurements, using numerical model based on finite element method, the viscous damping coefficient was determinedfor the glass balls. To obtain detailed information about the interparticle interactions in a shaker, a simplified model for collision between particles of a granular material was proposed. In order to simulate the flow of surrounding gas, a formulation of the equations for fluid flow in a porous medium including particle forces was proposed. These equations are solved with Large Eddy Simulation (LES) technique using a subgrid-model originally proposed for compressible turbulent flows. For a pentagonal prism-shaped container under vertical vibrations, the results show that oscillon type structures were formed. Oscillons are highly localized particle-like excitations of the granular layer. This self-sustaining state was named by analogy with its closest large-scale analogy, the soliton, which was first documented by J.S. Russell in 1834. The results which has been reportedbyBordbar and Zamankhan(2005b)also show that slightly revised fluctuation-dissipation theorem might apply to shaken sand, which appears to be asystem far from equilibrium and could exhibit strong spatial and temporal variations in quantities such as density and local particle velocity. In this light, hydrodynamic type continuum equations were presented for describing the deformation and flow of dense gas-particle mixtures. The constitutive equation used for the stress tensor provides an effective viscosity with a liquid-like character at low shear rates and a gaseous-like behavior at high shear rates. The numerical solutions were obtained for the aforementioned hydrodynamic equations for predicting the flow dynamics ofdense mixture of gas and particles in vertical cylindrical containers. For a heptagonal prism shaped container under vertical vibrations, the model results were found to predict bubbling behavior analogous to those observed experimentally. This bubbling behavior may be explained by the unusual gas pressure distribution found in the bed. In addition, oscillon type structures were found to be formed using a vertically vibrated, pentagonal prism shaped container in agreement with computer simulation results. These observations suggest that the pressure distribution plays a key rolein deformation and flow of dense mixtures of gas and particles under vertical vibrations. The present models provide greater insight toward the explanation of poorly understood hydrodynamic phenomena in the field of granular flows and dense gas-particle mixtures. The models can be generalized to investigate the granular material-container wall interactions which would be an issue of high interests in the industrial applications. By following this approach ideal processing conditions and powder transport can be created in industrial systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This bachelor's thesis studies calendar anomalies in stock returns in five South American countries including Argentina, Brazil, Chile and Mexico. The analysis in done using regression analysis and the OLS- method.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The analysis of the shape of excitation-emission matrices (EEMs) is a relevant tool for exploring the origin, transport and fate of dissolved organic matter (DOM) in aquatic ecosystems. Within this context, the decomposition of EEMs is acquiring a notable relevance. A simple mathematical algorithm that automatically deconvolves individual EEMs is described, creating new possibilities for the comparison of DOM fluorescence properties and EEMs that are very different from each other. A mixture model approach is adopted to decompose complex surfaces into sub-peaks. The laplacian operator and the Nelder-Mead optimisation algorithm are implemented to individuate and automatically locate potential peaks in the EEM landscape. The EEMs of a simple artificial mixture of fluorophores and DOM samples collected in a Mediterranean river are used to describe the model application and to illustrate a strategy that optimises the search for the optimal output.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this study, 13 ceramic samples were subjected to dissolution using three different procedures: (a) acid attack in open PTFE vessels with a mixture of HF-HClO4, (b) fusion of the sample with lithium metaborate and (c) microwave digestion in PTFE bombs. The samples used in the study had been previously analyzed by neutron activation analysis (NAA), X-ray fluorescence (XRF) and X-ray diffraction (XRD) and they cover a wide range of ceramics fired in different atmospheres and temperatures as well as different mineralogical and chemical compositions. The effectiveness of each procedure is evaluated in terms of its ability to dissolve the various mineralogical phases of the samples, of the number of elements that can be determined and of the time needed for the whole scheme of analysis to be completed.