989 resultados para Galaxies: star clusters: individual: 30 Doradus


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os avanços tecnológicos e científicos, na área da saúde, têm vindo a aliar áreas como a Medicina e a Matemática, cabendo à ciência adequar de forma mais eficaz os meios de investigação, diagnóstico, monitorização e terapêutica. Os métodos desenvolvidos e os estudos apresentados nesta dissertação resultam da necessidade de encontrar respostas e soluções para os diferentes desafios identificados na área da anestesia. A índole destes problemas conduz, necessariamente, à aplicação, adaptação e conjugação de diferentes métodos e modelos das diversas áreas da matemática. A capacidade para induzir a anestesia em pacientes, de forma segura e confiável, conduz a uma enorme variedade de situações que devem ser levadas em conta, exigindo, por isso, intensivos estudos. Assim, métodos e modelos de previsão, que permitam uma melhor personalização da dosagem a administrar ao paciente e por monitorizar, o efeito induzido pela administração de cada fármaco, com sinais mais fiáveis, são fundamentais para a investigação e progresso neste campo. Neste contexto, com o objetivo de clarificar a utilização em estudos na área da anestesia de um ajustado tratamento estatístico, proponho-me abordar diferentes análises estatísticas para desenvolver um modelo de previsão sobre a resposta cerebral a dois fármacos durante sedação. Dados obtidos de voluntários serão utilizados para estudar a interação farmacodinâmica entre dois fármacos anestésicos. Numa primeira fase são explorados modelos de regressão lineares que permitam modelar o efeito dos fármacos no sinal cerebral BIS (índice bispectral do EEG – indicador da profundidade de anestesia); ou seja estimar o efeito que as concentrações de fármacos têm na depressão do eletroencefalograma (avaliada pelo BIS). Na segunda fase deste trabalho, pretende-se a identificação de diferentes interações com Análise de Clusters bem como a validação do respetivo modelo com Análise Discriminante, identificando grupos homogéneos na amostra obtida através das técnicas de agrupamento. O número de grupos existentes na amostra foi, numa fase exploratória, obtido pelas técnicas de agrupamento hierárquicas, e a caracterização dos grupos identificados foi obtida pelas técnicas de agrupamento k-means. A reprodutibilidade dos modelos de agrupamento obtidos foi testada através da análise discriminante. As principais conclusões apontam que o teste de significância da equação de Regressão Linear indicou que o modelo é altamente significativo. As variáveis propofol e remifentanil influenciam significativamente o BIS e o modelo melhora com a inclusão do remifentanil. Este trabalho demonstra ainda ser possível construir um modelo que permite agrupar as concentrações dos fármacos, com base no efeito no sinal cerebral BIS, com o apoio de técnicas de agrupamento e discriminantes. Os resultados desmontram claramente a interacção farmacodinâmica dos dois fármacos, quando analisamos o Cluster 1 e o Cluster 3. Para concentrações semelhantes de propofol o efeito no BIS é claramente diferente dependendo da grandeza da concentração de remifentanil. Em suma, o estudo demostra claramente, que quando o remifentanil é administrado com o propofol (um hipnótico) o efeito deste último é potenciado, levando o sinal BIS a valores bastante baixos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A complexidade do objeto epidemiológico tem suscitado, ao longo do tempo, discussão sobre alguns elementos que o compõem, assumindo, muitas vezes, a forma de antinomias. Utilizando-se como substrato textos fundamentais, analisaram-se, no âmbito da epidemiologia social, a formulação e a proposta de solução para as antinomias biológico-social e individual-coletivo. Criticou-se a validade teórica das saídas apontadas pelo discurso epidemiológico-social para resolver o "conflito de leis" que permeia o referido objeto. Destacou-se o conceito marxista-helleriano de indivíduo para contribuir com a "sutura" dos três planos da realidade: o universal, o particular e o singular.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução – A monitorização da exposição ocupacional a doses de radiação ionizante pode ser complementada por dosímetros eletrónicos individuais que permitem uma leitura direta da dose de radiação recebida. Dada a dependência energética e de débito de dose já reportada para estes dosímetros, este trabalho pretende determinar a linearidade da resposta de um dosímetro eletrónico individual e estudar o comportamento da sua resposta em função da energia de radiação e do débito de dose. Metodologia – Para estudar a dependência da energia da radiação do dosímetro eletrónico pessoal Vertec Bleeper Sv procedeu‑se à sua irradiação com um equivalente de dose individual, Hp(10), de 500 μSv de radiação gama do Cobalto – 60 (60C) e Césio – 137 (137Cs) e das qualidades de radiação X da série Narrow (N): N‑30, N‑40, N‑60, N‑80, N‑100 e N‑120. Para investigar a dependência da resposta em função do débito de dose aplicaram‑se à ampola de raios X as intensidades de corrente elétrica de 1 mA, 5 mA, 10 mA, 15 mA e 20 mA. Resultados – Não existe uma relação entre a resposta do detetor e a energia de radiação a que este é exposto. Ocorre uma subestimação superior a 50% na grandeza medida para energias inferiores a 33 keV, mas ostenta uma medida relativamente linear da grandeza Hp(10) para doses inferiores a 100 μSv. Também se constata que, à medida que o débito de dose aumenta, existe uma diminuição na resposta do dosímetro. O menor decréscimo na resposta deste dosímetro eletrónico individual dá‑se para as qualidades de radiação N‑30 (1,1%), N‑40 (4,1%) e N‑120 (20,0%). Conclusão – Verifica‑se que a resposta do dosímetro individual Vertec Bleeper Sv depende fortemente da energia da radiação e do débito de dose. ABSTRACT: Introduction – The measurement of occupational exposure to radiation doses can be completed with an electronic personal dosemeter that allows a direct reading and alarm function of the received radiation dose. Due to the energy and dose rate dependence already reported for this type of dosemeter, it is intended, with this work, to determine the response linearity of an Electronic Personal Dosemeter and to study its response behavior to the dose rate and radiation energy. Methodology – The electronic personal dosemeter Vertec Bleeper Sv energy dependency was evaluated by its irradiation with 500 μSv from the radionuclides Cobalt – 60 (60C) and Cesium – 137 (137Cs) as well as by the radiation qualities of the Narrow (N) series: N‑30, N‑40, N‑60, N‑80, N‑100 e N‑120. To investigate the dose rate dependency, the intensities of electric current of 1 mA, 5 mA, 10 mA, 15 mA and 20 mA were applied to the X‑ray tube. Results – There is no relationship between the response of the detector and the radiation energy. For energies below 33 keV there is an underestimation over 50% of the radiation dose measured but the detector presents a linear response for energies under 100 μSv. A dependency on the dose rate is perceived since as the dose rate increases, the response of the individual monitor decreases. There is a smaller decrease for the radiation qualities of N‑30 (1.1%), N‑40 (4.1%) and N‑120 (20.0%). Conclusion – It is concluded that there is a strong dependence of radiation energy and dose rate on the response of an electronic personal dosemeter.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na década de 50 do século XX foi publicado o Decreto n.º 41486 de 30 de Dezembro de 1957 que regulamentou as estações receptoras de radiodifusão, decorrentes da evolução da “caixa que mudou o mundo”, a televisão. Posteriormente, na década de 80 desse mesmo século foram fixadas as regras básicas, com o objetivo de dotar os edifícios de infraestruturas de telecomunicações, nomeadamente telefone, telex e dados, com acesso através de redes físicas, mediante a publicação do Decreto-Lei 146/87 de 24 de Março – Instalações Telefónicas de Assinante (ITA), do Decreto Regulamentar n.º 25/87, o Regulamento de Instalações Telefónicas de Assinante (RITA), que estabeleceu as condições técnicas a que deveriam obedecer os projectos, as instalações e a conservação das infraestruturas de telecomunicações, bem como os procedimentos legais a seguir para a elaboração de projetos e solicitação de vistorias às instalações executadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O teste de imunofluorescência indireta (IFI) é considerado teste de referência na soroiogia da malária. Neste trabalho procuramos optimizar o teste empregando P. falciparum obtido de sangue humano e de cultura e P. vivax obtido de sangue de paciente como antígenos, para pesquisa de anticorpos IgG e IgM. Das variáveis técnicas estudadas melhores resultados foram obtidos quando os soros foram diluidos ern PBS contendo 1% de Tween 80 e as lâminas contendo a suspensão antigênica foram estabilizadas em dessecadores ou fixadas com acetona. Foi também padronizado o teste imunoenzimático ELISA com antigenos de P. falciparum obtidos em cultura. O estudo comparativo com o teste de imunofluorescência indireta para pesquisa de anticorpos IgG mostrou: a) nos pacientes primo infectados por P. falciparum a sensibilidade para ambos os testes foi de 71%; b) nos pacientes primo infectados pelo P. vivax a sensibilidade foi de 40% para ambos os testes; c) nos pacientes não primo infectados e com malária atual pelo P. falciparum a sensibilidade para ambos os testes foi de 100%; d) nos pacientes não primo infectados e com malária atual pelo P. vivax a sensibilidade foi de 85% para o teste ELISA e de 92% para a IFI; e) nos pacientes com malária mista a sensibilidade para ambos os testes foi de 100%. A especificidade da IFI foi de 100% e do teste ELISA 95% nos casos de indivíduos não maláricos. Os resultados obtidos sugerem ser o teste ELISA, uma boa alternativa para o teste de IFI, para a pesquisa de anticorpos IgG anti P. falciparum, na soroiogia da malária.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We describe the avidity maturation of IgGs in human toxoplasmosis using sequential serum samples from accidental and natural infections. In accidental cases, avidity increased continuously throughout infection while naturally infected patients showed a different profile. Twenty-five percent of sera from chronic patients having specific IgM positive results could be appropriately classified using exclusively the avidity test data. To take advantage of the potentiality of this technique, antigens recognized by IgG showing steeper avidity maturation were identified using immunoblot with KSCN elution. Two clusters of antigens, in the ranges of 21-24 kDa and 30-33 kDa, were identified as the ones that fulfill the aforementioned avidity characteristics.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work project (WP) is a study about a clustering strategy for Sport Zone. The general cluster study’s objective is to create groups such that within each group the individuals are similar to each other, but should be different among groups. The clusters creation is a mix of common sense, trial and error and some statistical supporting techniques. Our particular objective is to support category managers to better define the product type to be displayed in the stores’ shelves by doing store clusters. This research was carried out for Sport Zone, and comprises an objective definition, a literature review, the clustering activity itself, some factor analysis and a discriminant analysis to better frame our work. Together with this quantitative part, a survey addressed to category managers to better understand their key drivers, for choosing the type of product of each store, was carried out. Based in a non-random sample of 65 stores with data referring to 2013, the final result was the choice of 6 store clusters (Figure 1) which were individually characterized as the main outcome of this work. In what relates to our selected variables, all were important for the distinction between clusters, which proves the adequacy of their choice. The interpretation of the results gives category managers a tool to understand which products best fit the clustered stores. Furthermore, as a side finding thanks to the clusterization, a STP (Segmentation, Targeting and Positioning) was initiated, being this WP the first steps of a continuous process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

INTRODUCTION: The objective was to identify space and space-time risk clusters for the occurrence of deaths in a priority city for the control of tuberculosis (TB) in the Brazilian Northeast. METHODS: Ecological research was undertaken in the City of São Luis/Maranhão. Cases were considered that resulted in deaths in the population living in the urban region of the city with pulmonary TB as the basic cause, between 2008 and 2012. To detect space and space-time clusters of deaths due to pulmonary TB in the census sectors, the spatial analysis scan technique was used. RESULTS: In total, 221 deaths by TB occurred, 193 of which were due to pulmonary TB. Approximately 95% of the cases (n=183) were geocoded. Two significant spatial clusters were identified, the first of which showed a mortality rate of 5.8 deaths per 100,000 inhabitants per year and a high relative risk of 3.87. The second spatial cluster showed a mortality rate of 0.4 deaths per 100,000 inhabitants per year and a low relative risk of 0.10. A significant cluster was observed in the space-time analysis between 11/01/2008 and 04/30/2011, with a mortality rate of 8.10 deaths per 100,000 inhabitants per year and a high relative risk (3.0). CONCLUSIONS: The knowledge of priority sites for the occurrence of deaths can support public management to reduce inequities in the access to health services and permit an optimization of the resources and teams in the control of pulmonary TB, providing support for specific strategies focused on the most vulnerable populations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Economics is a social science which, therefore, focuses on people and on the decisions they make, be it in an individual context, or in group situations. It studies human choices, in face of needs to be fulfilled, and a limited amount of resources to fulfill them. For a long time, there was a convergence between the normative and positive views of human behavior, in that the ideal and predicted decisions of agents in economic models were entangled in one single concept. That is, it was assumed that the best that could be done in each situation was exactly the choice that would prevail. Or, at least, that the facts that economics needed to explain could be understood in the light of models in which individual agents act as if they are able to make ideal decisions. However, in the last decades, the complexity of the environment in which economic decisions are made and the limits on the ability of agents to deal with it have been recognized, and incorporated into models of decision making in what came to be known as the bounded rationality paradigm. This was triggered by the incapacity of the unboundedly rationality paradigm to explain observed phenomena and behavior. This thesis contributes to the literature in three different ways. Chapter 1 is a survey on bounded rationality, which gathers and organizes the contributions to the field since Simon (1955) first recognized the necessity to account for the limits on human rationality. The focus of the survey is on theoretical work rather than the experimental literature which presents evidence of actual behavior that differs from what classic rationality predicts. The general framework is as follows. Given a set of exogenous variables, the economic agent needs to choose an element from the choice set that is avail- able to him, in order to optimize the expected value of an objective function (assuming his preferences are representable by such a function). If this problem is too complex for the agent to deal with, one or more of its elements is simplified. Each bounded rationality theory is categorized according to the most relevant element it simplifes. Chapter 2 proposes a novel theory of bounded rationality. Much in the same fashion as Conlisk (1980) and Gabaix (2014), we assume that thinking is costly in the sense that agents have to pay a cost for performing mental operations. In our model, if they choose not to think, such cost is avoided, but they are left with a single alternative, labeled the default choice. We exemplify the idea with a very simple model of consumer choice and identify the concept of isofin curves, i.e., sets of default choices which generate the same utility net of thinking cost. Then, we apply the idea to a linear symmetric Cournot duopoly, in which the default choice can be interpreted as the most natural quantity to be produced in the market. We find that, as the thinking cost increases, the number of firms thinking in equilibrium decreases. More interestingly, for intermediate levels of thinking cost, an equilibrium in which one of the firms chooses the default quantity and the other best responds to it exists, generating asymmetric choices in a symmetric model. Our model is able to explain well-known regularities identified in the Cournot experimental literature, such as the adoption of different strategies by players (Huck et al. , 1999), the inter temporal rigidity of choices (Bosch-Dom enech & Vriend, 2003) and the dispersion of quantities in the context of di cult decision making (Bosch-Dom enech & Vriend, 2003). Chapter 3 applies a model of bounded rationality in a game-theoretic set- ting to the well-known turnout paradox in large elections, pivotal probabilities vanish very quickly and no one should vote, in sharp contrast with the ob- served high levels of turnout. Inspired by the concept of rhizomatic thinking, introduced by Bravo-Furtado & Côrte-Real (2009a), we assume that each per- son is self-delusional in the sense that, when making a decision, she believes that a fraction of the people who support the same party decides alike, even if no communication is established between them. This kind of belief simplifies the decision of the agent, as it reduces the number of players he believes to be playing against { it is thus a bounded rationality approach. Studying a two-party first-past-the-post election with a continuum of self-delusional agents, we show that the turnout rate is positive in all the possible equilibria, and that it can be as high as 100%. The game displays multiple equilibria, at least one of which entails a victory of the bigger party. The smaller one may also win, provided its relative size is not too small; more self-delusional voters in the minority party decreases this threshold size. Our model is able to explain some empirical facts, such as the possibility that a close election leads to low turnout (Geys, 2006), a lower margin of victory when turnout is higher (Geys, 2006) and high turnout rates favoring the minority (Bernhagen & Marsh, 1997).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the present thesis I analyse the roles of individual ability and structural embeddedness on entrepreneurial success. The results retrieved from a matched employer-employee longitudinal data set show prior worker productivities and environmental embeddedness to have a persistent positive impact on the size and growth rates of new firms. What is more, embeddedness facilitates the impact of ability on start-up performance with outsiders of comparable abilities starting smaller and slower growing firms. Those in higher ability categories are more likely to transfer and also, albeit to a lesser extent, close their ventures, an effect attributed to the higher opportunity costs associated with the group. Firms managed by embedded agents enjoy longer longevities and have better chances of finding a new owner after the departure of the previous one. Finally, higher ability types show evidence of specialisation in serial entrepreneurship.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Field lab: Business project

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Field lab: Business project

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem como objetivo analisar padrões de crescimento individual de diversas árvores que ocorrem em duas toposseqüências (direções Norte-Sul e Leste-Oeste), de uma amostra representativa da floresta de terra-firme na Amazônia Central. Foram selecionados de forma aleatória, aproximadamente, 300 indivíduos, sendo 150 em cada toposseqüência, distribuídos em mesmas proporções nas três classes topográficas (platô, encosta e baixio) e nas três classes de diâmetro (10 ≤ DAP < 30 cm; 30 ≤ DAP< 50 cm e DAP≥ 50 cm). Em cada uma dessas árvores foi instalada uma fita metálica, com extremidades parcialmente sobrepostas e ligadas por uma mola; o avanço de uma das pontas, dentro de uma abertura, representa o crescimento em circunferência, que foi medido com um paquímetro digital. As medições foram realizadas mensalmente ao longo de 19 meses, de junho/1999 a dezembro/2000; neste estudo foram considerados apenas os 12 meses do ano 2000. O padrão individual de crescimento em diâmetro varia muito com o passar dos meses (p = 0,00) e apenas razoavelmente quando os meses são interagidos com as classes de diâmetro (p 0,08); por outro lado, há fraca uma evidência (p = 0,25) quando as classes topográficas são acrescentadas na interação anterior e praticamente nenhuma evidência (p = 0,89) quando é analisada a interação meses e classes topográficas. Dentre todas as árvores selecionadas (300 indivíduos), foram mantidas na análise 272 indivíduos. A média do incremento anual em diâmetro, considerando as 272 árvores monitoradas, foi de 1,64 ± 0,21 mm (p = 0,05), ficando dentro do intervalo dos incrementos obtidos no BIONTE e FLONA Tapajós, que é de 1,5 a 2 mm por ano.