980 resultados para Complete Information


Relevância:

60.00% 60.00%

Publicador:

Resumo:

The present research deals with an important public health threat, which is the pollution created by radon gas accumulation inside dwellings. The spatial modeling of indoor radon in Switzerland is particularly complex and challenging because of many influencing factors that should be taken into account. Indoor radon data analysis must be addressed from both a statistical and a spatial point of view. As a multivariate process, it was important at first to define the influence of each factor. In particular, it was important to define the influence of geology as being closely associated to indoor radon. This association was indeed observed for the Swiss data but not probed to be the sole determinant for the spatial modeling. The statistical analysis of data, both at univariate and multivariate level, was followed by an exploratory spatial analysis. Many tools proposed in the literature were tested and adapted, including fractality, declustering and moving windows methods. The use of Quan-tité Morisita Index (QMI) as a procedure to evaluate data clustering in function of the radon level was proposed. The existing methods of declustering were revised and applied in an attempt to approach the global histogram parameters. The exploratory phase comes along with the definition of multiple scales of interest for indoor radon mapping in Switzerland. The analysis was done with a top-to-down resolution approach, from regional to local lev¬els in order to find the appropriate scales for modeling. In this sense, data partition was optimized in order to cope with stationary conditions of geostatistical models. Common methods of spatial modeling such as Κ Nearest Neighbors (KNN), variography and General Regression Neural Networks (GRNN) were proposed as exploratory tools. In the following section, different spatial interpolation methods were applied for a par-ticular dataset. A bottom to top method complexity approach was adopted and the results were analyzed together in order to find common definitions of continuity and neighborhood parameters. Additionally, a data filter based on cross-validation was tested with the purpose of reducing noise at local scale (the CVMF). At the end of the chapter, a series of test for data consistency and methods robustness were performed. This lead to conclude about the importance of data splitting and the limitation of generalization methods for reproducing statistical distributions. The last section was dedicated to modeling methods with probabilistic interpretations. Data transformation and simulations thus allowed the use of multigaussian models and helped take the indoor radon pollution data uncertainty into consideration. The catego-rization transform was presented as a solution for extreme values modeling through clas-sification. Simulation scenarios were proposed, including an alternative proposal for the reproduction of the global histogram based on the sampling domain. The sequential Gaussian simulation (SGS) was presented as the method giving the most complete information, while classification performed in a more robust way. An error measure was defined in relation to the decision function for data classification hardening. Within the classification methods, probabilistic neural networks (PNN) show to be better adapted for modeling of high threshold categorization and for automation. Support vector machines (SVM) on the contrary performed well under balanced category conditions. In general, it was concluded that a particular prediction or estimation method is not better under all conditions of scale and neighborhood definitions. Simulations should be the basis, while other methods can provide complementary information to accomplish an efficient indoor radon decision making.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The capabilities of a high-resolution (HR), accurate mass spectrometer (Exactive-MS) operating in full scan MS mode was investigated for the quantitative LC/MS analysis of drugs in patients' plasma samples. A mass resolution of 50,000 (FWHM) at m/z 200 and a mass extracted window of 5 ppm around the theoretical m/z of each analyte were used to construct chromatograms for quantitation. The quantitative performance of the Exactive-MS was compared with that of a triple quadrupole mass spectrometer (TQ-MS), TSQ Quantum Discovery or Quantum Ultra, operating in the conventional selected reaction monitoring (SRM) mode. The study consisted of 17 therapeutic drugs including 8 antifungal agents (anidulafungin, caspofungin, fluconazole, itraconazole, hydroxyitraconazole posaconazole, voriconazole and voriconazole-N-oxide), 4 immunosuppressants (ciclosporine, everolimus, sirolimus and tacrolimus) and 5 protein kinase inhibitors (dasatinib, imatinib, nilotinib, sorafenib and sunitinib). The quantitative results obtained with HR-MS acquisition show comparable detection specificity, assay precision, accuracy, linearity and sensitivity to SRM acquisition. Importantly, HR-MS offers several benefits over TQ-MS technology: absence of SRM optimization, time saving when changing the analysis from one MS to another, more complete information of what is in the samples and easier troubleshooting. Our work demonstrates that U/HPLC coupled to Exactive HR-MS delivers comparable results to TQ-MS in routine quantitative drug analyses. Considering the advantages of HR-MS, these results suggest that, in the near future, there should be a shift in how routine quantitative analyses of small molecules, particularly for therapeutic drugs, are performed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Linezolid is used off-label to treat multidrug-resistant tuberculosis (MDR-TB) in absence of systematic evidence. We performed a systematic review and meta-analysis on efficacy, safety and tolerability of linezolid-containing regimes based on individual data analysis. 12 studies (11 countries from three continents) reporting complete information on safety, tolerability, efficacy of linezolid-containing regimes in treating MDR-TB cases were identified based on Preferred Reporting Items for Systematic Reviews and Meta-Analyses guidelines. Meta-analysis was performed using the individual data of 121 patients with a definite treatment outcome (cure, completion, death or failure). Most MDR-TB cases achieved sputum smear (86 (92.5%) out of 93) and culture (100 (93.5%) out of 107) conversion after treatment with individualised regimens containing linezolid (median (inter-quartile range) times for smear and culture conversions were 43.5 (21-90) and 61 (29-119) days, respectively) and 99 (81.8%) out of 121 patients were successfully treated. No significant differences were detected in the subgroup efficacy analysis (daily linezolid dosage ≤600 mg versus >600 mg). Adverse events were observed in 63 (58.9%) out of 107 patients, of which 54 (68.4%) out of 79 were major adverse events that included anaemia (38.1%), peripheral neuropathy (47.1%), gastro-intestinal disorders (16.7%), optic neuritis (13.2%) and thrombocytopenia (11.8%). The proportion of adverse events was significantly higher when the linezolid daily dosage exceeded 600 mg. The study results suggest an excellent efficacy but also the necessity of caution in the prescription of linezolid.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this paper we show that lobbying in conditions of “direct democracy” is virtually impossible, even in conditions of complete information about voters preferences, since it would require solving a very computationally hard problem. We use the apparatus of parametrized complexity for this purpose.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Contexte : Pour favoriser l’allaitement, la Condition 3 de l’Initiative des amis des bébés (IAB) (OMS / UNICEF) vise à offrir une information complète aux femmes enceintes. Or, cette condition est implantée de façon variable dans les CLSC de Montréal car les intervenants de la santé ne semblent pas confortables à faire la promotion de l’allaitement en prénatal, surtout dans les milieux « québécois » et défavorisés. Objectif : Explorer les expériences personnelles et professionnelles des infirmières en santé communautaire qui sont reliées à la promotion de l’allaitement en prénatal en milieu défavorisé. Dans la présente étude, les informations moins souvent transmises, soit les risques du non-allaitement ainsi que la recommandation de poursuite de l’allaitement jusqu’à deux ans ou au-delà, ont été examinées. Méthodologie : La collecte des données de cette recherche qualitative s’est effectuée auprès d’infirmières de huit CLSC montréalais offrant des services à une population importante de femmes défavorisées, francophones, nées au Canada et ce, sous forme d’entrevues individuelles (n=12 infirmières) et d’entrevues de groupe (n=36 infirmières). Résultats : Les principaux facteurs favorables au niveau de confort des infirmières à faire la promotion de l’allaitement sont d’avoir suivi 20 heures ou plus de formation en allaitement dans les cinq dernières années, et d’avoir des croyances profondes positives quant à la valeur de l’allaitement comparativement aux préparations commerciales pour nourrissons (PCN). Craindre de susciter la culpabilité nuit à la promotion de l’allaitement. De plus, les infirmières exposées à la culture d’allaitement pendant l’enfance, ayant eu une expérience personnelle d’allaitement positive, qui perçoivent que leur rôle est d’encourager les mères à allaiter, ou qui recommandent rarement de donner des PCN en postnatal en cas de problèmes d’allaitement, sont plus confortables à informer les femmes enceintes des risques du non-allaitement. Conclusion : Plusieurs infirmières semblent manquer de connaissances sur la qualité supérieure de l’allaitement par rapport à l’alimentation artificielle et sur les risques du non-allaitement. De plus, il semble que plusieurs infirmières n’aient pas les habiletés cliniques optimales pour soutenir les mères dans leur allaitement. Des formations appropriées aideraient les infirmières à avoir davantage confiance dans leur capacité à soutenir les mères en postnatal, ainsi qu’à promouvoir l’allaitement en prénatal. Finalement, les infirmières devraient prendre conscience de leurs biais personnels, afin d’en réduire les impacts négatifs sur leur pratique professionnelle.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La compréhension des objets dans les programmes orientés objet est une tâche impor- tante à la compréhension du code. JavaScript (JS) est un langage orienté-objet dyna- mique, et son dynamisme rend la compréhension du code source très difficile. Dans ce mémoire, nous nous intéressons à l’analyse des objets pour les programmes JS. Notre approche construit de façon automatique un graphe d’objets inspiré du diagramme de classes d’UML à partir d’une exécution concrète d’un programme JS. Le graphe résul- tant montre la structure des objets ainsi que les interactions entre eux. Notre approche utilise une transformation du code source afin de produire cette in- formation au cours de l’exécution. Cette transformation permet de recueillir de l’infor- mation complète au sujet des objets crées ainsi que d’intercepter toutes les modifications de ces objets. À partir de cette information, nous appliquons plusieurs abstractions qui visent à produire une représentation des objets plus compacte et intuitive. Cette approche est implémentée dans l’outil JSTI. Afin d’évaluer l’utilité de l’approche, nous avons mesuré sa performance ainsi que le degré de réduction dû aux abstractions. Nous avons utilisé les dix programmes de réfé- rence de V8 pour cette comparaison. Les résultats montrent que JSTI est assez efficace pour être utilisé en pratique, avec un ralentissement moyen de 14x. De plus, pour 9 des 10 programmes, les graphes sont suffisamment compacts pour être visualisés. Nous avons aussi validé l’approche de façon qualitative en inspectant manuellement les graphes gé- nérés. Ces graphes correspondent généralement très bien au résultat attendu. Mots clés: Analyse de programmes, analyse dynamique, JavaScript, profilage.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La migration internationale d’étudiants est un investissement couteux pour les familles dans beaucoup de pays en voie de développement. Cependant, cet investissement est susceptible de générer des bénéfices financiers et sociaux relativement importants aux investisseurs, tout autant que des externalités pour d’autres membres de la famille. Cette thèse s’intéresse à deux aspects importants de la migration des étudiants internationaux : (i) Qui part? Quels sont les déterminants de la probabilité de migration? (ii) Qui paie? Comment la famille s’organise-t-elle pour couvrir les frais de la migration? (iii) Qui y gagne? Ce flux migratoire est-il au bénéfice du pays d’origine? Entreprendre une telle étude met le chercheur en face de défis importants, notamment, l’absence de données complètes et fiables; la dispersion géographique des étudiants migrants en étant la cause première. La première contribution importante de ce travail est le développement d’une méthode de sondage en « boule de neige » pour des populations difficiles à atteindre, ainsi que d’estimateurs corrigeant les possibles biais de sélection. A partir de cette méthodologie, j’ai collecté des données incluant simultanément des étudiants migrants et non-migrants du Cameroun en utilisant une plateforme internet. Un second défi relativement bien documenté est la présence d’endogénéité du choix d’éducation. Nous tirons avantage des récents développements théoriques dans le traitement des problèmes d’identification dans les modèles de choix discrets pour résoudre cette difficulté, tout en conservant la simplicité des hypothèses nécessaires. Ce travail constitue l’une des premières applications de cette méthodologie à des questions de développement. Le premier chapitre de la thèse étudie la décision prise par la famille d’investir dans la migration étudiante. Il propose un modèle structurel empirique de choix discret qui reflète à la fois le rendement brut de la migration et la contrainte budgétaire liée au problème de choix des agents. Nos résultats démontrent que le choix du niveau final d’éducation, les résultats académiques et l’aide de la famille sont des déterminants importants de la probabilité d’émigrer, au contraire du genre qui ne semble pas affecter très significativement la décision familiale. Le second chapitre s’efforce de comprendre comment les agents décident de leur participation à la décision de migration et comment la famille partage les profits et décourage le phénomène de « passagers clandestins ». D’autres résultats dans la littérature sur l’identification partielle nous permettent de considérer des comportements stratégiques au sein de l’unité familiale. Les premières estimations suggèrent que le modèle « unitaire », où un agent représentatif maximise l’utilité familiale ne convient qu’aux familles composées des parents et de l’enfant. Les aidants extérieurs subissent un cout strictement positif pour leur participation, ce qui décourage leur implication. Les obligations familiales et sociales semblent expliquer les cas de participation d’un aidant, mieux qu’un possible altruisme de ces derniers. Finalement, le troisième chapitre présente le cadre théorique plus général dans lequel s’imbriquent les modèles développés dans les précédents chapitres. Les méthodes d’identification et d’inférence présentées sont spécialisées aux jeux finis avec information complète. Avec mes co-auteurs, nous proposons notamment une procédure combinatoire pour une implémentation efficace du bootstrap aux fins d’inférences dans les modèles cités ci-dessus. Nous en faisons une application sur les déterminants du choix familial de soins à long terme pour des parents âgés.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A medida que pasa el tiempo; la ciencia, el desarrollo tecnológico y la constante búsqueda de encontrar nuevas verdades, más fehacientes y que logren responder más asertivamente los diferentes cuestionamientos de la humanidad, han logrado redefinir las teorías y los axiomas que, en su momento, se tomaron como el dogma a seguir en diferentes disciplinas y cuestionamientos de la sociedad y la industria. La concepción tradicional que se tiene de la mente y el comportamiento del consumidor tenía vacios importantes en términos de aplicabilidad y generalización de sus teorías, pues pensar que la humanidad desarrolla sus decisiones de compra bajo análisis netamente racionales y apegados a estructuras temporales para manejar su dinero es un supuesto que no se emplea de manera general y concienzuda por el común. Antes que agentes 100% racionales, con un completo flujo de información y en un mercado perfecto bajo todos los preceptos económicos, somos personas de sentimientos y sentidos. Reaccionamos ante situaciones, estados de ánimo y estímulos, donde es nuestro cerebro quien recibe todo el contexto cognitivo que nos brinda el entorno y entonces actúa (y compra) de diferentes maneras. Es allí donde el Neuromarketing nace como un claro ejemplo de esa búsqueda por una nueva verdad. Una donde entender al consumidor no deje de lado su faceta más real; sus reacciones, pues son estas las que realmente definen qué le gusta o no y qué despierta en él un impulso lo suficientemente importante como para incidir en su decisión de compra. Es por ello que el Neuromarketing se ha adentrado a estudiar lo más profundo y verídico del consumidor, su cerebro. Alejándose de las técnicas tradicionales de investigación de mercados, donde el consumidor puede desvirtuar la información que percibe de un producto o una campaña publicitaría por diferentes razones sociales y psicológicas. El Neuromarketing se ha adentrado al estudio del consumidor y su cerebro mediante técnicas biométricas, en las cuales expone al consumidor al marketing y analiza sus reacciones cerebrales en términos de interés, adrenalina, memoria activa y sentimientos, apoyado por técnicas como el ¨eye tracking¨, donde las interacciones visuales del consumidor permiten identificar los puntos calientes y de interés en determinada pieza publicitaria. Pero el estudio, entendido por algunos como ¨invasivo¨ frente a las libertades en términos de privacidad y libertad de elección del consumidor deben ser responsablemente dirigidos y puestos bajo un contexto científico, donde el único fin sea el de generar nuevas hipótesis y teorías que permitan tener un mejor conocimiento del comportamiento del consumidor sin traspasar los límites del control del mismo. El Neuromarketing debate su existencia misma entre la creación de nuevas metodologías de acercamiento al pensamiento del consumidor, la efectividad de sus conocimiento dados a la industria y el yugo social que acarrea esta ciencia debido a la potencial coerción a los consumidores debido a sus hallazgos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Objetivo: Determinar el riesgo cardiovascular de los trabajadores de una empresa de hidrocarburos (E.H) mediante la aplicación de la escala Framingham REGICOR durante el año 2014. Métodos: Se realizó un estudio descriptivo tipo corte transversal a partir de los registros de 700 trabajadores de una empresa de hidrocarburos que tenían una historia clínica laboral con información completa. Resultados: La edad promedio fue de 33,6 años (σ 9,1). Se encontró una prevalencia de HTA (1,4%), tabaquismo (5,7%), hábito de tomar licor (66,4%) y exceso de peso (61,6%). La prevalencia de hipertensión arterial y tabaquismo fue de 1.71% y 5.7% respectivamente, de hipercolesterolemia el 39,00%, de hipertrigliceridemia del 30,14% y el 20,00% de los trabajadores son obesos. El 3,00% (21) de los trabajadores fueron clasificados como de riesgo moderado de sufrir un evento isquémico o hemorrágico en un periodo de 10 años. A pesar que ningún trabajador fue clasificado como riesgo alto, se recomienda se realicen actividades tendientes a que a los trabajadores generen conciencia sobre los riesgos de desarrollar un evento cardiovascular si no se modifican los estilos de vida.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

With 6-man Chess essentially solved, the available 6-man Endgame Tables (EGTs) have been scanned for zugzwang positions where, unusually, having the move is a disadvantage. Review statistics together with some highlights and positions are provided here: the complete information is available on the ICGA website. An outcome of the review is the observation that the definition of zugzwang should be revisited, if only because the presence of en passant capture moves gives rise to three new, asymmetric types of zugzwang.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Snakebites are a major neglected tropical disease responsible for as many as 95000 deaths every year worldwide. Viper venom serine proteases disrupt haemostasis of prey and victims by affecting various stages of the blood coagulation system. A better understanding of their sequence, structure, function and phylogenetic relationships will improve the knowledge on the pathological conditions and aid in the development of novel therapeutics for treating snakebites. A large dataset for all available viper venom serine proteases was developed and analysed to study various features of these enzymes. Despite the large number of venom serine protease sequences available, only a small proportion of these have been functionally characterised. Although, they share some of the common features such as a C-terminal extension, GWG motif and disulphide linkages, they vary widely between each other in features such as isoelectric points, potential N-glycosylation sites and functional characteristics. Some of the serine proteases contain substitutions for one or more of the critical residues in catalytic triad or primary specificity pockets. Phylogenetic analysis clustered all the sequences in three major groups. The sequences with substitutions in catalytic triad or specificity pocket clustered together in separate groups. Our study provides the most complete information on viper venom serine proteases to date and improves the current knowledge on the sequence, structure, function and phylogenetic relationships of these enzymes. This collective analysis of venom serine proteases will help in understanding the complexity of envenomation and potential therapeutic avenues.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Complete information dispositional metasemantics says that our expressions get their meaning in virtue of what our dispositions to apply those terms would be given complete information. The view has recently been advanced and argued to have a number of attractive features. I argue that that it threatens to make the meanings of our words indeterminate and doesn't do what it was that made a dispositional view attractive in the first place.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this work, we propose a hierarchical extension of the polygonality index as the means to characterize geographical planar networks. By considering successive neighborhoods around each node, it is possible to obtain more complete information about the spatial order of the network at progressive spatial scales. The potential of the methodology is illustrated with respect to synthetic and real geographical networks.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Objetivo: Avaliar a influência de mudanças no hábito de fumar sobre o ganho de peso gravídico materno. Métodos: Foram entrevistadas 5.564 gestantes com 20 anos ou mais, sem diabetes mellitus prévio em serviços de pré-natal geral de seis capitais brasileiras, entre 1991 e 1995, e acompanhamos, através de revisão de prontuários, as gestações até o parto, identificando 4.000 gestantes com peso pré-gravídico relatado, peso medido no terceiro trimestre, hábito de fumar e época de sua eventual modificação, quando disponíveis. Resultados: Entre as gestantes ex-fumantes (915, 23% do total), 240 (26%) pararam de fumar durante a gravidez. A mediana de cigarros/dia das que continuaram fumantes (717, 18%) foi reduzida de 10 para 5 após o início da gravidez. Após ajustar para idade, escolaridade, cor da pele, IMC pré-gravídico, paridade e centro clínico, as ex-fumantes ganharam 1.030 g (IC95% 590 a 1.460) a mais que as nunca fumantes, sendo maior a diferença (1.540, IC95% 780 a 2.300 g) nas que pararam após a concepção. O ganho do peso na gravidez se correlacionou, tanto em fumantes quanto em ex-fumantes, com o número de cigarros diminuídos na gravidez. Conclusão: Diminuir ou parar de fumar na gravidez, embora importante para uma gestação saudável, é fator de risco para ganho de peso materno.