888 resultados para probability of precocious pregnancy


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les antibiotiques aminoglycosidiques sont des agents bactéricides de grande valeur et d’efficacité à large spectre contre les pathogènes Gram-positifs et Gram-négatifs, dont plusieurs membres naturels et semisynthétiques sont importants dans l’histoire clinique depuis 1950. Des travaux crystallographiques sur le ribosome, récompensés par le prix Nobel, ont démontré comment leurs diverses structures polyaminées sont adaptées pour cibler une hélice d’ARN dans le centre de codage de la sous-unité 30S du ribosome bactérien. Leur interférence avec l’affinité et la cinétique des étapes de sélection et vérification des tARN induit la synthèse de protéines à basse fidélité, et l’inhibition de la translocation, établissant un cercle vicieux d’accumulation d’antibiotique et de stress sur la membrane. En réponse à ces pressions, les pathogènes bactériens ont évolué et disséminé une panoplie de mécanismes de résistance enzymatiques et d’expulsion : tels que les N acétyltransférases, les O phosphotransférases et les O nucleotidyltransférases qui ciblent les groupements hydroxyle et amino sur le coeur des aminoglycosides; des méthyl-transférases, qui ciblent le site de liaison ribosomale; et des pompes d’expulsion actives pour l’élimination sélective des aminoglycosides, qui sont utilisés par les souches Gram-négatives. Les pathogènes les plus problématiques, qui présentent aujourd’hui une forte résilience envers la majorité des classes d’antibiotiques sur le bord de la pan-résistance ont été nommés des bactéries ESKAPE, une mnémonique pour Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa et Enterobacteriaceae. La distribution globale des souches avec des mécanismes de résistance envers les standards cliniques aminoglycosides, tels que la tobramycine, l’amikacine et la gentamicine, est comprise entre 20 et 60% des isolées cliniques. Ainsi, les aminoglycosides du type 4,6-disubstitués-2-deoxystreptamine sont inadéquats comme thérapies anti-infectieuses à large spectre. Cependant, la famille des aminoglycosides 4,5-disubstitués, incluant la butirosine, la neomycine et la paromomycine, dont la structure plus complexe, pourrait constituter une alternative. Des collègues dans le groupe Hanessian et collaborateurs d’Achaogen Inc. ont démontré que certains analogues de la paraomomycine et neomycine, modifiés par désoxygénation sur les positions 3’ et 4’, et par substitution avec la chaîne N1-α-hydroxy-γ-aminobutyramide (HABA) provenant de la butirosine, pourrait produire des antibiotiques très prometteurs. Le Chapitre 4 de cette dissertation présente la conception et le développement d’une stratégie semi-synthétique pour produire des nouveaux aminoglycosides améliorés du type 4,5 disubstitués, inspiré par des modifications biosynthétiques de la sisomicine, qui frustrent les mécanismes de résistance bactérienne distribuées globalement. Cette voie de synthèse dépend d’une réaction d’hydrogénolyse de type Tsuji catalysée par palladium, d’abord développée sur des modèles monosaccharides puis subséquemment appliquée pour générer un ensemble d’aminoglycosides hybrides entre la neomycine et la sisomicine. Les études structure-activité des divers analogues de cette nouvelle classe ont été évaluées sur une gamme de 26 souches bactériennes exprimant des mécanismes de résistance enzymatique et d’expulsion qui englobe l’ensemble des pathogènes ESKAPE. Deux des antibiotiques hybrides ont une couverture antibacterienne excellente, et cette étude a mis en évidence des candidats prometteurs pour le développement préclinique. La thérapie avec les antibiotiques aminoglycosidiques est toujours associée à une probabilité de complications néphrotoxiques. Le potentiel de toxicité de chaque aminoglycoside peut être largement corrélé avec le nombre de groupements amino et de désoxygénations. Une hypothèse de longue date dans le domaine indique que les interactions principales sont effectuées par des sels des groupements ammonium, donc l’ajustement des paramètres de pKa pourrait provoquer une dissociation plus rapide avec leurs cibles, une clairance plus efficace et globalement des analogues moins néphrotoxiques. Le Chapitre 5 de cette dissertation présente la conception et la synthèse asymétrique de chaînes N1 HABA β substitutées par mono- et bis-fluoration. Des chaînes qui possèdent des γ-N pKa dans l’intervalle entre 10 et 7.5 ont été appliquées sur une neomycine tétra-désoxygénée pour produire des antibiotiques avancés. Malgré la réduction considérable du γ N pKa, le large spectre bactéricide n’a pas été significativement affecté pour les analogues fluorés isosteriques. De plus, des études structure-toxicité évaluées avec une analyse d’apoptose propriétaire d’Achaogen ont démontré que la nouvelle chaîne β,β difluoro-N1-HABA est moins nocive sur un modèle de cellules de rein humain HK2 et elle est prometteuse pour le développement d’antibiotiques du type neomycine avec des propriétés thérapeutiques améliorées. Le chapitre final de cette dissertation présente la proposition et validation d’une synthèse biomimétique par assemblage spontané du aminoglycoside 66-40C, un dimère C2 symétrique bis-imine macrocyclique à 16 membres. La structure proposée du macrocycle a été affinée par spectroscopie nucléaire à un système trans,trans-bis-azadiène anti-parallèle. Des calculs indiquent que l’effet anomérique de la liaison α glycosidique entre les anneaux A et B fournit la pré-organisation pour le monomère 6’ aldéhydo sisomicine et favorise le produit macrocyclique observé. L’assemblage spontané dans l’eau a été étudié par la dimérisation de trois divers analogues et par des expériences d’entre croisement qui ont démontré la généralité et la stabilité du motif macrocyclique de l'aminoglycoside 66-40C.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Many studies have focused on the concept of humanization of birth in normal pregnancy cases or at low obstetric risk, but no studies, at our knowledge, have so far specifically focused on the humanization of birth in both high-risk, and low risk pregnancies, in a highly specialized hospital setting. The present study thus aims to: 1) define the specific components of the humanized birth care model which bring satisfaction to women who seek obstetrical care in highly specialized hospitals; and 2) explore the organizational and cultural dimensions which act as barriers or facilitators for the implementation of humanized birth care practices in a highly specialized, university affiliated hospital in Quebec. A single case study design was chosen for this thesis. The data were collected through semi-structured interviews, field notes, participant observations, selfadministered questionnaire, relevant documents, and archives. The samples comprised: 11 professionals from different disciplines, 6 administrators from different hierarchical levels within the hospital, and 157 women who had given birth at the hospital during the study. The performed analysis covered both quantitative descriptive and qualitative deductive and inductive content analyses. The thesis comprises three articles. In the first article, we proposed a conceptual framework, based on Allaire and Firsirotu’s (1984) organizational culture theory. It attempts to examine childbirth patterns as an organizational cultural phenomenon. In our second article, we answered the following specific question: according to the managers and multidisciplinary professionals practicing in a highly specialized hospital as well as the women seeking perinatal care in this hospital setting, what is the definition of humanized care? Analysis of the data collected uncovered the following themes which explained the perceptions of what humanized birth was: personalized care, recognition of women’s rights, humanly care for women, family-centered care,women’s advocacy and companionship, compromise of security, comfort and humanity, and non-stereotyped pregnancies. Both high and low risk women felt more satisfied with the care they received if they were provided with informed choices, were given the right to participate in the decision-making process and were surrounded by competent care providers. These care providers who humanly cared for them were also able to provide relevant medical intervention. The professionals and administrators’ perceptions of humanized birth, on the other hand, mostly focused on personalized and family-centered care. In the third article of the thesis, we covered the dimensions of the internal and external components of an institution which can act as factors that facilitate or barriers that prevent, a specialized and university affiliated hospital in Quebec from adopting a humanized child birthing care. The findings revealed that both the external dimensions of a highly specialized hospital -including its history, society, and contingency-; and its internal dimensions -including culture, structure, and the individuals present in the hospital-, can all affect the humanization of birth care in such an institution, whether separately, simultaneously or in interaction. We thus hereby conclude that the humanization of birth care in a highly specialized hospital setting, should aim to meet all the physiological, as well as psychological aspects of birth care, including respect of the fears, beliefs, values, and needs of women and their families. Integration of competent and caring professionals and the use of obstetric technology to enhance the level of certainty and assurance in both high-risk and low risk women are both positive factors for the implementation of humanized care in a highly specialized hospital. Finally, the humanization of birth care approach in a highly specialized and university affiliated hospital setting demands a new healthcare policy. Such policy must offer a guarantee for women to have the place of birth, and the health care professional of their choice as well as those, which will enable women to make informed choices from the beginning of their pregnancy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Malgré la diversité des recherches sur la parentalité adolescente, l'analyse des trajectoires parentales et des facteurs qui peuvent moduler l'effet de cet événement sur la scolarité demeure peu documentée. C'est précisément sur cet aspect que se penche la présente étude. L'objectif général de ce mémoire est de voir dans quelle mesure les différentes trajectoires adoptées par les jeunes parents sont associées à l’obtention des diplômes scolaires. Évidemment, les parents adolescents forment un groupe qui est plus à risque de ne pas avoir obtenu de diplôme secondaire vers 20 ans. Cependant, nous soutenons que la trajectoire parentale est différente pour chaque individu et qu'elle peut modifier la probabilité d’obtention des diplômes secondaire et postsecondaire. Les résultats des analyses de régression sur les données de l'Enquête auprès des jeunes en transition nous montrent que ce n’est pas le simple fait d’être parent qui influe sur la scolarité des jeunes, mais plutôt le type de trajectoires scolaires empruntées par ces derniers. Ainsi, certaines trajectoires parentales moins stables et plus précoces ont plus d’impact sur la non obtention d’un diplôme d’études secondaire, que les trajectoires parentales stables, qu’il s’agisse de monoparentalité ou de famille cohabitante. La précocité est donc un facteur d’influence différencié selon le type de parcours conjugal. De plus, nous observons que cette association entre certaines trajectoires parentales et l’obtention d’un diplôme s’observe également chez les hommes même si le type de trajectoire parentale est globalement moins explicatif que pour les femmes. Finalement, les variables reliées à la performance scolaire à 15 ans médiatisent en partie l’impact des trajectoires parentales sur le statut scolaire à 23 ans, ce qui suggère que l’association peut s’interpréter aussi comme un effet de la scolarité sur la parentalité.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’insomnie, commune auprès de la population gériatrique, est typiquement traitée avec des benzodiazépines qui peuvent augmenter le risque des chutes. La thérapie cognitive-comportementale (TCC) est une intervention non-pharmacologique ayant une efficacité équivalente et aucun effet secondaire. Dans la présente thèse, le coût des benzodiazépines (BZD) sera comparé à celui de la TCC dans le traitement de l’insomnie auprès d’une population âgée, avec et sans considération du coût additionnel engendré par les chutes reliées à la prise des BZD. Un modèle d’arbre décisionnel a été conçu et appliqué selon la perspective du système de santé sur une période d’un an. Les probabilités de chutes, de visites à l’urgence, d’hospitalisation avec et sans fracture de la hanche, les données sur les coûts et sur les utilités ont été recueillies à partir d’une revue de la littérature. Des analyses sur le coût des conséquences, sur le coût-utilité et sur les économies potentielles ont été faites. Des analyses de sensibilité probabilistes et déterministes ont permis de prendre en considération les estimations des données. Le traitement par BZD coûte 30% fois moins cher que TCC si les coûts reliés aux chutes ne sont pas considérés (231$ CAN vs 335$ CAN/personne/année). Lorsque le coût relié aux chutes est pris en compte, la TCC s’avère être l’option la moins chère (177$ CAN d’économie absolue/ personne/année, 1,357$ CAN avec les BZD vs 1,180$ pour la TCC). La TCC a dominé l’utilisation des BZD avec une économie moyenne de 25, 743$ CAN par QALY à cause des chutes moins nombreuses observées avec la TCC. Les résultats des analyses d’économies d’argent suggèrent que si la TCC remplaçait le traitement par BZD, l’économie annuelle directe pour le traitement de l’insomnie serait de 441 millions de dollars CAN avec une économie cumulative de 112 billions de dollars canadiens sur une période de cinq ans. D’après le rapport sensibilité, le traitement par BZD coûte en moyenne 1,305$ CAN, écart type 598$ (étendue : 245-2,625)/personne/année alors qu’il en coûte moyenne 1,129$ CAN, écart type 514$ (étendue : 342-2,526)/personne/année avec la TCC. Les options actuelles de remboursement de traitements pharmacologiques au lieu des traitements non-pharmacologiques pour l’insomnie chez les personnes âgées ne permettent pas d’économie de coûts et ne sont pas recommandables éthiquement dans une perspective du système de santé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce présent mémoire examine la probabilité qu'une Canadienne française née entre 1700-1749 et mariée fasse l’expérience d'au moins une naissance au cours de la quarantaine, en tenant compte des particularités de la trajectoire individuelle, des caractéristiques familiales et du contexte historique. Nos analyses confirment que sur les 14 727 femmes à risque d'une maternité entre 40 et 49 ans, 62 % d'entre elles donnent naissance après l'âge de 40 ans. Selon les différentes trajectoires féminines, des disparités tangibles se manifestent dans le fait d'enfanter à un âge avancé. Nos résultats suggèrent que la possibilité qu'une femme accouche dans la quarantaine est positivement associée à un ensemble de facteurs liés à son parcours de vie: une première union entre l’âge de 20 et de 24 ans, un conjoint du même âge ou un conjoint plus jeune, une union continue (ou sans décès du conjoint) jusqu’à 40 ans ou passé cet âge, un enfant précédent non survivant et un historique familial dans lequel la mère de cette femme et au moins l’une de ses sœurs ont donné naissance à un âge avancé. De plus, l'intensité du phénomène de la maternité tardive diminue de manière perceptible au court du temps, particulièrement chez les cohortes de femmes ayant accouché après 1765. La vie en milieu « urbain » influence également de manière négative les chances d'enfanter à un âge avancé. Il se peut que la détérioration des conditions de vie générales vers la fin du 18e siècle, cousinées à la récurrence de maladies infectieuses et l'insalubrité des villes durant cette période, explique la diminution du risque d'une maternité durant la quarantaine. Les résultats obtenus témoignent de la forte contribution des Canadiennes françaises en matière de fécondité tardive en contexte naturel. Notre étude exploratoire offre aussi une perspective utile permettant de mieux comprendre la maternité tardive contemporaine, sujet qui fait l’objet de nombreux débats actuellement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The hazards associated with major accident hazard (MAH) industries are fire, explosion and toxic gas releases. Of these, toxic gas release is the worst as it has the potential to cause extensive fatalities. Qualitative and quantitative hazard analyses are essential for the identitication and quantification of the hazards associated with chemical industries. This research work presents the results of a consequence analysis carried out to assess the damage potential of the hazardous material storages in an industrial area of central Kerala, India. A survey carried out in the major accident hazard (MAH) units in the industrial belt revealed that the major hazardous chemicals stored by the various industrial units are ammonia, chlorine, benzene, naphtha, cyclohexane, cyclohexanone and LPG. The damage potential of the above chemicals is assessed using consequence modelling. Modelling of pool fires for naphtha, cyclohexane, cyclohexanone, benzene and ammonia are carried out using TNO model. Vapor cloud explosion (VCE) modelling of LPG, cyclohexane and benzene are carried out using TNT equivalent model. Boiling liquid expanding vapor explosion (BLEVE) modelling of LPG is also carried out. Dispersion modelling of toxic chemicals like chlorine, ammonia and benzene is carried out using the ALOHA air quality model. Threat zones for different hazardous storages are estimated based on the consequence modelling. The distance covered by the threat zone was found to be maximum for chlorine release from a chlor-alkali industry located in the area. The results of consequence modelling are useful for the estimation of individual risk and societal risk in the above industrial area.Vulnerability assessment is carried out using probit functions for toxic, thermal and pressure loads. Individual and societal risks are also estimated at different locations. Mapping of threat zones due to different incident outcome cases from different MAH industries is done with the help of Are GIS.Fault Tree Analysis (FTA) is an established technique for hazard evaluation. This technique has the advantage of being both qualitative and quantitative, if the probabilities and frequencies of the basic events are known. However it is often difficult to estimate precisely the failure probability of the components due to insufficient data or vague characteristics of the basic event. It has been reported that availability of the failure probability data pertaining to local conditions is surprisingly limited in India. This thesis outlines the generation of failure probability values of the basic events that lead to the release of chlorine from the storage and filling facility of a major chlor-alkali industry located in the area using expert elicitation and proven fuzzy logic. Sensitivity analysis has been done to evaluate the percentage contribution of each basic event that could lead to chlorine release. Two dimensional fuzzy fault tree analysis (TDFFTA) has been proposed for balancing the hesitation factor invo1ved in expert elicitation .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Warships are generally sleek, slender with V shaped sections and block coefficient below 0.5, compared to fuller forms and higher values for commercial ships. They normally operate in the higher Froude number regime, and the hydrodynamic design is primarily aimed at achieving higher speeds with the minimum power. Therefore the structural design and analysis methods are different from those for commercial ships. Certain design guidelines have been given in documents like Naval Engineering Standards and one of the new developments in this regard is the introduction of classification society rules for the design of warships.The marine environment imposes subjective and objective uncertainties on ship structure. The uncertainties in loads, material properties etc.,. make reliable predictions of ship structural response a difficult task. Strength, stiffness and durability criteria for warship structures can be established by investigations on elastic analysis, ultimate strength analysis and reliability analysis. For analysis of complicated warship structures, special means and valid approximations are required.Preliminary structural design of a frigate size ship has been carried out . A finite element model of the hold model, representative of the complexities in the geometric configuration has been created using the finite element software NISA. Two other models representing the geometry to a limited extent also have been created —- one with two transverse frames and the attached plating alongwith the longitudinal members and the other representing the plating and longitudinal stiffeners between two transverse frames. Linear static analysis of the three models have been carried out and each one with three different boundary conditions. The structural responses have been checked for deflections and stresses against the permissible values. The structure has been found adequate in all the cases. The stresses and deflections predicted by the frame model are comparable with those of the hold model. But no such comparison has been realized for the interstiffener plating model with the other two models.Progressive collapse analyses of the models have been conducted for the three boundary conditions, considering geometric nonlinearity and then combined geometric and material nonlinearity for the hold and the frame models. von Mises — lllyushin yield criteria with elastic-perfectly plastic stress-strain curve has been chosen. ln each case, P-Delta curves have been generated and the ultimate load causing failure (ultimate load factor) has been identified as a multiple of the design load specified by NES.Reliability analysis of the hull module under combined geometric and material nonlinearities have been conducted. The Young's Modulus and the shell thickness have been chosen as the variables. Randomly generated values have been used in the analysis. First Order Second Moment has been used to predict the reliability index and thereafter, the probability of failure. The values have been compared against standard values published in literature.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Usually, under rainfed conditions the growing period exists in the humid months. Hence, for agricultural planning knowledge about the variabilities of the duration of the humid seasons are very much needed. The crucial problem affecting agriculture is the persistency in receiving a specific amount of rainfall during a short period. Agricultural operations and decision making are highly dependent on the probability of receiving given amounts of rainfall; such periods should match the water requirements of different phenological phases of the crops. While prolonged dry periods during sensitive phases are detrimental to their growth and lower the yields, excess of rainfall causes soil erosion and loss of soil nutrients. These factors point to the importance of evaluation of wet and dry spells. In this study the weekly rainfall data have been analysed to estimate the probability of wet and dry periods at all selected stations of each agroclimatic zone and the crop growth potentials of the growing seasons have been analysed. The thesis consists of six Chapters.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present study described about the interaction of a two level atom and squeezed field with time varying frequency. By applying a sinusoidal variation in the frequency of the field, the randomness in population inversion is reduced and the collapses and periodic revivals are regained. Quantum optics is an emerging field in physics which mainly deals with the interaction of atoms with quantised electromagnetic fields. Jaynes-Cummings Model (JCM) is a key model among them, which describes the interaction between a two level atom and a single mode radiation field. Here the study begins with a brief history of light, atom and their interactions. Also discussed the interaction between atoms and electromagnetic fields. The study suggest a method to manipulate the population inversion due to interaction and control the randomness in it, by applying a time dependence on the frequency of the interacting squeezed field.The change in behaviour of the population inversion due to the presence of a phase factor in the applied frequency variation is explained here.This study also describes the interaction between two level atom and electromagnetic field in nonlinear Kerr medium. It deals with atomic and field state evolution in a coupled cavity system. Our results suggest a new method to control and manipulate the population of states in two level atom radiation interaction,which is very essential for quantum information processing.We have also studied the variation of atomic population inversion with time, when a two level atom interacts with light field, where the light field has a sinusoidal frequency variation with a constant phase. In both coherent field and squeezed field cases, the population inversion variation is completely different from the phase zero frequency modulation case. It is observed that in the presence of a non zero phase φ, the population inversion oscillates sinusoidally.Also the collapses and revivals gradually disappears when φ increases from 0 to π/2. When φ = π/2 the evolution of population inversion is identical to the case when a two level atom interacts with a Fock state. Thus, by applying a phase shifted frequency modulation one can induce sinusoidal oscillations of atomic inversion in linear medium, those normally observed in Kerr medium. We noticed that the entanglement between the atom and field can be controlled by varying the period of the field frequency fluctuations. The system has been solved numerically and the behaviour of it for different initial conditions and different susceptibility values are analysed. It is observed that, for weak cavity coupling the effect of susceptibility is minimal. In cases of strong cavity coupling, susceptibility factor modifies the nature in which the probability oscillates with time. Effect of susceptibility on probability of states is closely related to the initial state of the system.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Protecting the quality of children growth and development becomes a supreme qualification for the betterment of a nation. Double burden child malnutrition is emerging worldwide which might have a strong influence to the quality of child brain development and could not be paid-off on later life. Milk places a notable portion during the infancy and childhood. Thus, the deep insight on milk consumption pattern might explain the phenomenon of double burden child malnutrition correlated to the cognitive impairments. Objective: Current study is intended (1) to examine the current face of Indonesian double burden child malnutrition: a case study in Bogor, West Java, Indonesia, (2) to investigate the association of this phenomenon with child brain development, and (3) to examine the contribution of socioeconomic status and milk consumption on this phenomenon so that able to formulate some possible solutions to encounter this problem. Design: A cross-sectional study using a structured coded questionnaire was conducted among 387 children age 5-6 years old and their parents from 8 areas in Bogor, West-Java, Indonesia on November 2012 to December 2013, to record some socioeconomic status, anthropometric measurements, and history of breast feeding. Diet and probability of milk intake was assessed by two 24 h dietary recalls and food frequency questionnaire (FFQ). Usual daily milk intake was calculated using Multiple Source Method (MSM). Some brain development indicators (IQ, EQ, learning, and memory ability) using Projective Multi-phase Orientation method was also executed to learn the correlation between double burden child malnutrition and some brain development indicator. Results and conclusions: A small picture of child double burden malnutrition is shown in Bogor, West Java, Indonesia, where prevalence of Severe Acute Malnutrition (SAM) is 27.1%, Moderate Acute Malnutrition (MAM) is 24.9%, and overnutrition is 7.7%. This phenomenon proves to impair the child brain development. The malnourished children, both under- and over- nourished children have significantly (P-value<0.05) lower memory ability compared to the normal children (memory score, N; SAM = 45.2, 60; MAM = 48.5, 61; overweight = 48.4, 43; obesity = 47.9, 60; normal = 52.4, 163). The plausible reasons behind these evidences are the lack of nutrient intake during the sprout growth period on undernourished children or increasing adiposity on overnourished children might influence the growth of hippocampus area which responsible to the memory ability. Either undernutrition or overnutrition, the preventive action on this problem is preferable to avoid ongoing cognitive performance loss of the next generation. Some possible solutions for this phenomenon are promoting breast feeding initiation and exclusive breast feeding practices for infants, supporting the consumption of a normal portion of milk (250 to 500 ml per day) for children, and breaking the chain of poverty by socioeconomic improvement. And, the national food security becomes the fundamental point for the betterment of the next. In the global context, the causes of under- and over- nutrition have to be opposed through integrated and systemic approaches for a better quality of the next generation of human beings.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Land tenure insecurity is widely perceived as a disincentive for long-term land improvement investment hence the objective of this paper is to evaluate how tenure (in)security associated with different land use arrangements in Ghana influenced households’ plot level investment decisions and choices. The paper uses data from the Farmer-Based Organisations (FBO) survey. The FBO survey collected information from 2,928 households across three ecological zones of Ghana using multistaged cluster sampling. Probit and Tobit models tested the effects of land tenancy and ownership arrangements on households’ investment behaviour while controlling other factors. It was found that marginal farm size was inversely related to tenure insecurity while tenure insecurity correlate positively with value of farm land and not farm size. Individual ownership and documentation of land significantly reduced the probability of households losing uncultivated lands. Individual land ownership increased both the probability of investing and level of investments made in land improvement and irrigation probably due to increasing importance households place on land ownership. Two possible explanations for this finding are: First, that land markets and land relations have changed significantly over the last two decades with increasing money transaction and fixed agreements propelled by population growth and increasing value of land. Secondly, inclusion of irrigation investment as a long term investment in land raises the value of household investment and the time period required to reap the returns on the investments. Households take land ownership and duration of tenancy into consideration if the resource implications of land investments are relatively huge and the time dimension for harvesting returns to investments is relatively long.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Object recognition is complicated by clutter, occlusion, and sensor error. Since pose hypotheses are based on image feature locations, these effects can lead to false negatives and positives. In a typical recognition algorithm, pose hypotheses are tested against the image, and a score is assigned to each hypothesis. We use a statistical model to determine the score distribution associated with correct and incorrect pose hypotheses, and use binary hypothesis testing techniques to distinguish between them. Using this approach we can compare algorithms and noise models, and automatically choose values for internal system thresholds to minimize the probability of making a mistake.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Compositional data analysis motivated the introduction of a complete Euclidean structure in the simplex of D parts. This was based on the early work of J. Aitchison (1986) and completed recently when Aitchinson distance in the simplex was associated with an inner product and orthonormal bases were identified (Aitchison and others, 2002; Egozcue and others, 2003). A partition of the support of a random variable generates a composition by assigning the probability of each interval to a part of the composition. One can imagine that the partition can be refined and the probability density would represent a kind of continuous composition of probabilities in a simplex of infinitely many parts. This intuitive idea would lead to a Hilbert-space of probability densities by generalizing the Aitchison geometry for compositions in the simplex into the set probability densities

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper a novel methodology aimed at minimizing the probability of network failure and the failure impact (in terms of QoS degradation) while optimizing the resource consumption is introduced. A detailed study of MPLS recovery techniques and their GMPLS extensions are also presented. In this scenario, some features for reducing the failure impact and offering minimum failure probabilities at the same time are also analyzed. Novel two-step routing algorithms using this methodology are proposed. Results show that these methods offer high protection levels with optimal resource consumption