908 resultados para group-theoretical methods


Relevância:

40.00% 40.00%

Publicador:

Resumo:

BACKGROUND & AIMS By means of this update, the GARIN working group aims to define its position regarding the treatment of patients with diabetes or stress hyperglycaemia and artificial nutrition. In this area there are many aspects of uncertainty, especially in non-critically ill patients. METHODS Bibliographical review, and specific questions in advance were discussed and answered at a meeting in the form of conclusions. RESULTS We propose a definition of stress hyperglycaemia. The indications and access routes for artificial nutrition are no different in patients with diabetes/stress hyperglycaemia than in non-diabetics. The objective must be to keep pre-prandial blood glucose levels between 100 and 140 mg/dl and post-prandial levels between 140 and 180 mg/dl. Hyperglycemia can be prevented through systematic monitoring of capillary glycaemias and adequately calculate energy-protein needs. We recommend using enteral formulas designed for patients with diabetes (high monounsaturated fat) to facilitate metabolic control. The best drug treatment for treating hyperglycaemia/diabetes in hospitalised patients is insulin and we make recommendations for adapt the theoretical insulin action to the nutrition infusion regimen. We also addressed recommendations for future investigation. CONCLUSIONS This recommendations about artificial nutrition in patients with diabetes or stress hyperglycaemia can add value to clinical work.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Rare diseases are typically chronic medical conditions of genetic etiology characterized by low prevalence and high complexity. Patients living with rare diseases face numerous physical, psychosocial and economic challenges that place them in the realm of health disparities. Congenital hypogonadotropic hypogonadism (CHH) is a rare endocrine disorder characterized by absent puberty and infertility. Little is known about the psychosocial impact of CHH on patients or their adherence to available treatments. This project aimed to examine the relationship between illness perceptions, depressive symptoms and adherence to treatment in men with CHH using the nursing-sensitive Health Promotion Model (HPM). A community based participatory research (CBPR) framework was employed as a model for empowering patients and overcoming health inequities. The study design used a sequential, explanatory mixed-methods approach. To reach dispersed CHH men, we used web-based recruitment and data collection (online survey). Subsequently, three patient focus groups were conducted to provide explanatory insights into the online survey (i.e. barriers to adherence, challenges of CHH, and coping/support) The online survey (n=101) revealed that CHH men struggle with adherence and often have long gaps in care (40% >1 year). They experience negative psychosocial consequences because of CHH and exhibit significantly increased rates of depression (p<0.001). Focus group participants (n=26) identified healthcare system, interpersonal, and personal factors as barriers to adherence. Further, CHH impacts quality of life and impedes psychosexual development in these men. The CHH men are active internet users who rely on the web forcrowdsourcing solutions and peer-to-peer support. Moreover, they are receptive to web-based interventions to address unmet health needs. This thesis contributes to nursing knowledge in several ways. First, it demonstrates the utility of the HPM as a valuable theoretical construct for understanding medication adherence and for assessing rare disease patients. Second, these data identify a range of unmet health needs that are targets for patient-centered interventions. Third, leveraging technology (high-tech) effectively extended the reach of nursing care while the CBPR approach and focus groups (high-touch) served as concurrent nursing interventions facilitating patient empowerment in overcoming health disparities. Last, these findings hold promise for developing e-health interventions to bridge identified shortfalls in care and activating patients for enhanced self- care and wellness -- Les maladies rares sont généralement de maladies chroniques d'étiologie génétique caractérisées par une faible prévalence et une haute complexité de traitement. Les patients atteints de maladies rares sont confrontés à de nombreux défis physiques, psychosociaux et économiques qui les placent dans une posture de disparité et d'inégalités en santé. L'hypogonadisme hypogonadotrope congénital (CHH) est un trouble endocrinien rare caractérisé par l'absence de puberté et l'infertilité. On sait peu de choses sur l'impact psychosocial du CHH sur les patients ou leur adhésion aux traitements disponibles. Ce projet vise à examiner la relation entre la perception de la maladie, les symptômes dépressifs et l'observance du traitement chez les hommes souffrant de CHH. Cette étude est modélisée à l'aide du modèle de la Promotion de la santé de Pender (HPM). Le cadre de l'approche communautaire de recherche participative (CBPR) a aussi été utilisé. La conception de l'étude a reposé sur une approche mixte séquentielle. Pour atteindre les hommes souffrant de CHH, un recrutement et une collecte de données ont été organisées électroniquement. Par la suite, trois groupes de discussion ont été menées avec des patients experts impliqués au sein d'organisations reliés aux maladies rares. Ils ont été invités à discuter certains éléments additionnels dont, les obstacles à l'adhésion au traitement, les défis généraux de vivre avec un CHH, et l'adaptation à la maladie en tenant compte du soutien disponible. Le sondage en ligne (n = 101) a révélé que les hommes souffrant de CHH ont souvent de longues périodes en rupture de soins (40% > 1 an). Ils vivent des conséquences psychosociales négatives en raison du CHH et présentent une augmentation significative des taux de dépression (p <0,001). Les participants aux groupes de discussion (n = 26) identifient dans l'ordre, les systèmes de soins de santé, les relations interpersonnelles, et des facteurs personnels comme des obstacles à l'adhésion. En outre, selon les participants, le CHH impacte négativement sur leur qualité de vie générale et entrave leur développement psychosexuel. Les hommes souffrant de CHH se considèrent être des utilisateurs actifs d'internet et comptent sur le web pour trouver des solutions pour trouver des ressources et y recherchent le soutien de leurs pairs (peer-to-peer support). En outre, ils se disent réceptifs à des interventions qui sont basées sur le web pour répondre aux besoins de santé non satisfaits. Cette thèse contribue à la connaissance des soins infirmiers de plusieurs façons. Tout d'abord, elle démontre l'utilité de la HPM comme une construction théorique utile pour comprendre l'adhésion aux traitements et pour l'évaluation des éléments de promotion de santé qui concernent les patients atteints de maladies rares. Deuxièmement, ces données identifient une gamme de besoins de santé non satisfaits qui sont des cibles pour des interventions infirmières centrées sur le patient. Troisièmement, méthodologiquement parlant, cette étude démontre que les méthodes mixtes sont appropriées aux études en soins infirmiers car elles allient les nouvelles technologies qui peuvent effectivement étendre la portée des soins infirmiers (« high-tech »), et l'approche CBPR par des groupes de discussion (« high-touch ») qui ont facilité la compréhension des difficultés que doivent surmonter les hommes souffrant de CHH pour diminuer les disparités en santé et augmenter leur responsabilisation dans la gestion de la maladie rare. Enfin, ces résultats sont prometteurs pour développer des interventions e-santé susceptibles de combler les lacunes dans les soins et l'autonomisation de patients pour une meilleure emprise sur les auto-soins et le bien-être.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Vaatimusmäärittely on tärkeä vaihe ohjelmistotuotannossa, koska virheelliset ja puutteelliset asiakasvaatimukset vaikuttavat huomattavasti asiakkaan tyytymättömyyteen ohjelmistotuotteessa. Ohjelmistoinsinöörit käyttävät useita erilaisia menetelmiä ja tekniikoita asiakasvaatimusten kartoittamiseen. Erilaisia tekniikoita asiakasvaatimusten keräämiseen on olemassa valtava määrä.Diplomityön tavoitteena oli parantaa asiakasvaatimusten keräämisprosessia ohjelmistoprojekteissa. Asiakasvaatimusten kartoittamiseen käytettävien tekniikoiden arvioinnin perusteella kehitettiin parannettu asiakasvaatimusten keräämisprosessi. Kehitetyn prosessin testaamiseksi ja parantamiseksi järjestettiin ryhmätyöistuntoja liittyen todellisiin ohjelmistokehitysprojekteihin. Tuloksena vaatimusten kerääminen eri sidosryhmiltä nopeutui ja tehostui. Prosessi auttoi muodostamaan yleisen kuvan kehitettävästä ohjelmistosta, prosessin avulla löydettiin paljon ideoita ja prosessi tehosti ideoiden analysointia ja priorisointia. Prosessin suurin kehityskohde oli fasilitaattorin ja osallistujien valmistautumisessa ryhmätyöistuntoihin etukäteen.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Coexisting workloads from professional, household and family, and caregiving activities for frail parents expose middle-aged individuals, the so-called "Sandwich Generation", to potential health risks. Current trends suggest that this situation will continue or increase. Thus SG health promotion has become a nursing concern. Most existing research considers coexisting workloads a priori pathogenic. Most studies have examined the association of one, versus two, of these three activities with health. Few studies have used a nursing perspective. This article presents the development of a framework based on a nursing model. We integrated Siegrist's Effort-Reward Imbalance middle-range theory into "Neuman Systems Model". The latter was chosen for its salutogenic orientation, its attention to preventive nursing interventions and the opportunity it provides to simultaneously consider positive and negative perceptions of SG health and SG coexisting workloads. Finally, it facilitated a theoretical identification of health protective factors.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The B3LYP/6-31G (d) density functional theory (DFT) method was used to study molecular geometry, electronic structure, infrared spectrum (IR) and thermodynamic properties. Heat of formation (HOF) and calculated density were estimated to evaluate detonation properties using Kamlet-Jacobs equations. Thermal stability of 3,6,7,8-tetranitro-3,6,7,8-tetraaza-tricyclo [3.1.1.1(2,4)]octane (TTTO) was investigated by calculating bond dissociation energy (BDE) at the unrestricted B3LYP/6-31G(d) level. Results showed the N-NO2 bond is a trigger bond during the thermolysis initiation process. The crystal structure obtained by molecular mechanics (MM) methods belongs to P2(1)/C space group, with cell parameters a = 8.239 Å, b = 8.079 Å, c = 16.860 Å, Z = 4 and r = 1.922 g cm-3. Both detonation velocity of 9.79 km s-1 and detonation pressure of 44.22 GPa performed similarly to CL-20. According to the quantitative standards of energetics and stability, TTTO essentially satisfies this requirement as a high energy density compound (HEDC).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In this thesis we investigate some problems in set theoretical topology related to the concepts of the group of homeomorphisms and order. Many problems considered are directly or indirectly related to the concept of the group of homeomorphisms of a topological space onto itself. Order theoretic methods are used extensively. Chapter-l deals with the group of homeomorphisms. This concept has been investigated by several authors for many years from different angles. It was observed that nonhomeomorphic topological spaces can have isomorphic groups of homeomorphisms. Many problems relating the topological properties of a space and the algebraic properties of its group of homeomorphisms were investigated. The group of isomorphisms of several algebraic, geometric, order theoretic and topological structures had also been investigated. A related concept of the semigroup of continuous functions of a topological space also received attention

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Study on variable stars is an important topic of modern astrophysics. After the invention of powerful telescopes and high resolving powered CCD’s, the variable star data is accumulating in the order of peta-bytes. The huge amount of data need lot of automated methods as well as human experts. This thesis is devoted to the data analysis on variable star’s astronomical time series data and hence belong to the inter-disciplinary topic, Astrostatistics. For an observer on earth, stars that have a change in apparent brightness over time are called variable stars. The variation in brightness may be regular (periodic), quasi periodic (semi-periodic) or irregular manner (aperiodic) and are caused by various reasons. In some cases, the variation is due to some internal thermo-nuclear processes, which are generally known as intrinsic vari- ables and in some other cases, it is due to some external processes, like eclipse or rotation, which are known as extrinsic variables. Intrinsic variables can be further grouped into pulsating variables, eruptive variables and flare stars. Extrinsic variables are grouped into eclipsing binary stars and chromospheri- cal stars. Pulsating variables can again classified into Cepheid, RR Lyrae, RV Tauri, Delta Scuti, Mira etc. The eruptive or cataclysmic variables are novae, supernovae, etc., which rarely occurs and are not periodic phenomena. Most of the other variations are periodic in nature. Variable stars can be observed through many ways such as photometry, spectrophotometry and spectroscopy. The sequence of photometric observa- xiv tions on variable stars produces time series data, which contains time, magni- tude and error. The plot between variable star’s apparent magnitude and time are known as light curve. If the time series data is folded on a period, the plot between apparent magnitude and phase is known as phased light curve. The unique shape of phased light curve is a characteristic of each type of variable star. One way to identify the type of variable star and to classify them is by visually looking at the phased light curve by an expert. For last several years, automated algorithms are used to classify a group of variable stars, with the help of computers. Research on variable stars can be divided into different stages like observa- tion, data reduction, data analysis, modeling and classification. The modeling on variable stars helps to determine the short-term and long-term behaviour and to construct theoretical models (for eg:- Wilson-Devinney model for eclips- ing binaries) and to derive stellar properties like mass, radius, luminosity, tem- perature, internal and external structure, chemical composition and evolution. The classification requires the determination of the basic parameters like pe- riod, amplitude and phase and also some other derived parameters. Out of these, period is the most important parameter since the wrong periods can lead to sparse light curves and misleading information. Time series analysis is a method of applying mathematical and statistical tests to data, to quantify the variation, understand the nature of time-varying phenomena, to gain physical understanding of the system and to predict future behavior of the system. Astronomical time series usually suffer from unevenly spaced time instants, varying error conditions and possibility of big gaps. This is due to daily varying daylight and the weather conditions for ground based observations and observations from space may suffer from the impact of cosmic ray particles. Many large scale astronomical surveys such as MACHO, OGLE, EROS, xv ROTSE, PLANET, Hipparcos, MISAO, NSVS, ASAS, Pan-STARRS, Ke- pler,ESA, Gaia, LSST, CRTS provide variable star’s time series data, even though their primary intention is not variable star observation. Center for Astrostatistics, Pennsylvania State University is established to help the astro- nomical community with the aid of statistical tools for harvesting and analysing archival data. Most of these surveys releases the data to the public for further analysis. There exist many period search algorithms through astronomical time se- ries analysis, which can be classified into parametric (assume some underlying distribution for data) and non-parametric (do not assume any statistical model like Gaussian etc.,) methods. Many of the parametric methods are based on variations of discrete Fourier transforms like Generalised Lomb-Scargle peri- odogram (GLSP) by Zechmeister(2009), Significant Spectrum (SigSpec) by Reegen(2007) etc. Non-parametric methods include Phase Dispersion Minimi- sation (PDM) by Stellingwerf(1978) and Cubic spline method by Akerlof(1994) etc. Even though most of the methods can be brought under automation, any of the method stated above could not fully recover the true periods. The wrong detection of period can be due to several reasons such as power leakage to other frequencies which is due to finite total interval, finite sampling interval and finite amount of data. Another problem is aliasing, which is due to the influence of regular sampling. Also spurious periods appear due to long gaps and power flow to harmonic frequencies is an inherent problem of Fourier methods. Hence obtaining the exact period of variable star from it’s time series data is still a difficult problem, in case of huge databases, when subjected to automation. As Matthew Templeton, AAVSO, states “Variable star data analysis is not always straightforward; large-scale, automated analysis design is non-trivial”. Derekas et al. 2007, Deb et.al. 2010 states “The processing of xvi huge amount of data in these databases is quite challenging, even when looking at seemingly small issues such as period determination and classification”. It will be beneficial for the variable star astronomical community, if basic parameters, such as period, amplitude and phase are obtained more accurately, when huge time series databases are subjected to automation. In the present thesis work, the theories of four popular period search methods are studied, the strength and weakness of these methods are evaluated by applying it on two survey databases and finally a modified form of cubic spline method is intro- duced to confirm the exact period of variable star. For the classification of new variable stars discovered and entering them in the “General Catalogue of Vari- able Stars” or other databases like “Variable Star Index“, the characteristics of the variability has to be quantified in term of variable star parameters.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The [2+2+2] cycloaddition reaction involves the formation of three carbon-carbon bonds in one single step using alkynes, alkenes, nitriles, carbonyls and other unsaturated reagents as reactants. This is one of the most elegant methods for the construction of polycyclic aromatic compounds and heteroaromatic, which have important academic and industrial uses. The thesis is divided into ten chapters including six related publications. The first study based on the Wilkinson’s catalyst, RhCl(PPh3)3, compares the reaction mechanism of the [2+2+2] cycloaddition process of acetylene with the cycloaddition obtained for the model of the complex, RhCl(PH3)3. In an attempt to reduce computational costs in DFT studies, this research project aimed to substitute PPh3 ligands for PH3, despite the electronic and steric effects produced by PPh3 ligands being significantly different to those created by PH3 ones. In this first study, detailed theoretical calculations were performed to determine the reaction mechanism of the two complexes. Despite some differences being detected, it was found that modelling PPh3 by PH3 in the catalyst helps to reduce the computational cost significantly while at the same time providing qualitatively acceptable results. Taking into account the results obtained in this earlier study, the model of the Wilkinson’s catalyst, RhCl(PH3)3, was applied to study different [2+2+2] cycloaddition reactions with unsaturated systems conducted in the laboratory. Our research group found that in the case of totally closed systems, specifically 15- and 25-membered azamacrocycles can afford benzenic compounds, except in the case of 20-membered azamacrocycle (20-MAA) which was inactive with the Wilkinson’s catalyst. In this study, theoretical calculations allowed to determine the origin of the different reactivity of the 20-MAA, where it was found that the activation barrier of the oxidative addition of two alkynes is higher than those obtained for the 15- and 25-membered macrocycles. This barrier was attributed primarily to the interaction energy, which corresponds to the energy that is released when the two deformed reagents interact in the transition state. The main factor that helped to provide an explanation to the different reactivity observed was that the 20-MAA had a more stable and delocalized HOMO orbital in the oxidative addition step. Moreover, we observed that the formation of a strained ten-membered ring during the cycloaddition of 20-MAA presents significant steric hindrance. Furthermore, in Chapter 5, an electrochemical study is presented in collaboration with Prof. Anny Jutand from Paris. This work allowed studying the main steps of the catalytic cycle of the [2+2+2] cycloaddition reaction between diynes with a monoalkyne. First kinetic data were obtained of the [2+2+2] cycloaddition process catalyzed by the Wilkinson’s catalyst, where it was observed that the rate-determining step of the reaction can change depending on the structure of the starting reagents. In the case of the [2+2+2] cycloaddition reaction involving two alkynes and one alkene in the same molecule (enediynes), it is well known that the oxidative coupling may occur between two alkynes giving the corresponding metallacyclopentadiene, or between one alkyne and the alkene affording the metallacyclopentene complex. Wilkinson’s model was used in DFT calculations to analyze the different factors that may influence in the reaction mechanism. Here it was observed that the cyclic enediynes always prefer the oxidative coupling between two alkynes moieties, while the acyclic cases have different preferences depending on the linker and the substituents used in the alkynes. Moreover, the Wilkinson’s model was used to explain the experimental results achieved in Chapter 7 where the [2+2+2] cycloaddition reaction of enediynes is studied varying the position of the double bond in the starting reagent. It was observed that enediynes type yne-ene-yne preferred the standard [2+2+2] cycloaddition reaction, while enediynes type yne-yne-ene suffered β-hydride elimination followed a reductive elimination of Wilkinson’s catalyst giving cyclohexadiene compounds, which are isomers from those that would be obtained through standard [2+2+2] cycloaddition reactions. Finally, the last chapter of this thesis is based on the use of DFT calculations to determine the reaction mechanism when the macrocycles are treated with transition metals that are inactive to the [2+2+2] cycloaddition reaction, but which are thermally active leading to new polycyclic compounds. Thus, a domino process was described combining an ene reaction and a Diels-Alder cycloaddition.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

New bifunctional pyrazole based ligands of the type [C3HR2N2CONR'] (where R = H or CH3; R' = CH3, C2H5, or (C3H7)-C-i) were prepared and characterized. The coordination chemistry of these ligands with uranyl nitrate and uranyl bis(dibenzoyl methanate) was studied with infrared (IR), H-1 NMR, electrospray-mass spectrometry (ES-MS), elemental analysis, and single crystal X-ray diffraction methods. The structure of compound [UO2(NO3)(2)(C3H3N2CON{C2H5}(2))] (2) shows that the uranium(VI) ion is surrounded by one nitrogen atom and seven oxygen atoms in a hexagonal bipyramidal geometry with the ligand acting as a bidentate chelating ligand and bonds through both the carbamoyl oxygen and pyrazolyl nitrogen atoms. In the structure of [UO2(NO3)(2)(H2O)(2)(C5H7N2CON {C2H5}(2))(2)], (5) the pyrazole figand acts as a second sphere ligand and hydrogen bonds to the water molecules through carbamoyl oxygen and pyrazolyl nitrogen atoms. The structure of [UO2(DBM)(2)C3H3N2CON{C2H5}(2)] (8) (where DBM = C6H5COCHCOC6H5) shows that the pyrazole ligand acts as a monodentate ligand and bonds through the carbamoyl oxygen to the uranyl group. The ES-MS spectra of 2 and 8 show that the ligand is similarly bonded to the metal ion in solution. Ab initio quantum chemical studies show that the steric effect plays the key role in complexation behavior.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

We focus this work on the theoretical investigation of the block-copolymer poly [oxyoctyleneoxy-(2,6-dimethoxy-1,4phenylene-1,2-ethinylene-phenanthrene-2,4diyl) named as LaPPS19, recently proposed for optoelectronic applications. We used for that a variety of methods, from molecular mechanics to quantum semiempirical techniques (AMI, ZINDO/S-CIS). Our results show that as expected isolated LaPPS19 chains present relevant electron localization over the phenanthrene group. We found, however, that LaPPS19 could assemble in a pi-stacked form, leading to impressive interchain interaction; the stacking induces electronic delocalization between neighbor chains and introduces new states below the phenanthrene-related absorption; these results allowed us to associate the red-shift of the absorption edge, seen in the experimental results, to spontaneous pi-stack aggregation of the chains. (C) 2009 Wiley Periodicals, Inc. Int J Quantum Chem 110: 885-892, 2010

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The structural, spectroscopic and theoretical study of cyclocreatine (1-carboxymethyl-2-iminoimidazolidine, CyCre) has been performed prompted by the biological relevance of the molecule and its potential role as a ligand in biometalic compounds. The crystal structure of CyCre has been determined by X-ray diffraction methods. The compound crystallizes as a zwitterion in the monoclinic system, space group P2(1)/c. The crystal is further stabilized by a network of N-H center dot center dot center dot O bonds. Infrared and Raman spectra of the solid, electronic spectra of aqueous solutions at different pH values and (1)H and (13)C NMR spectra have been recorded and analyzed. Band assignments were accomplished with the help of theoretical calculations. Optimized molecular geometries, harmonic vibrational frequencies and molecular electrostatic potentials were calculated using methods based on the density functional theory. (C) 2010 Elsevier B.V. All rights reserved.