939 resultados para GLOBULAR CLUSTERS: INDIVIDUAL: SEGUE 3


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Botnets are a group of computers infected with a specific sub-set of a malware family and controlled by one individual, called botmaster. This kind of networks are used not only, but also for virtual extorsion, spam campaigns and identity theft. They implement different types of evasion techniques that make it harder for one to group and detect botnet traffic. This thesis introduces one methodology, called CONDENSER, that outputs clusters through a self-organizing map and that identify domain names generated by an unknown pseudo-random seed that is known by the botnet herder(s). Aditionally DNS Crawler is proposed, this system saves historic DNS data for fast-flux and double fastflux detection, and is used to identify live C&Cs IPs used by real botnets. A program, called CHEWER, was developed to automate the calculation of the SVM parameters and features that better perform against the available domain names associated with DGAs. CONDENSER and DNS Crawler were developed with scalability in mind so the detection of fast-flux and double fast-flux networks become faster. We used a SVM for the DGA classififer, selecting a total of 11 attributes and achieving a Precision of 77,9% and a F-Measure of 83,2%. The feature selection method identified the 3 most significant attributes of the total set of attributes. For clustering, a Self-Organizing Map was used on a total of 81 attributes. The conclusions of this thesis were accepted in Botconf through a submited article. Botconf is known conferênce for research, mitigation and discovery of botnets tailled for the industry, where is presented current work and research. This conference is known for having security and anti-virus companies, law enforcement agencies and researchers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In, Lusíada – Direito, II Série, nº 3 de 2005

Relevância:

30.00% 30.00%

Publicador:

Resumo:

INTRODUCTION: The objective was to identify space and space-time risk clusters for the occurrence of deaths in a priority city for the control of tuberculosis (TB) in the Brazilian Northeast. METHODS: Ecological research was undertaken in the City of São Luis/Maranhão. Cases were considered that resulted in deaths in the population living in the urban region of the city with pulmonary TB as the basic cause, between 2008 and 2012. To detect space and space-time clusters of deaths due to pulmonary TB in the census sectors, the spatial analysis scan technique was used. RESULTS: In total, 221 deaths by TB occurred, 193 of which were due to pulmonary TB. Approximately 95% of the cases (n=183) were geocoded. Two significant spatial clusters were identified, the first of which showed a mortality rate of 5.8 deaths per 100,000 inhabitants per year and a high relative risk of 3.87. The second spatial cluster showed a mortality rate of 0.4 deaths per 100,000 inhabitants per year and a low relative risk of 0.10. A significant cluster was observed in the space-time analysis between 11/01/2008 and 04/30/2011, with a mortality rate of 8.10 deaths per 100,000 inhabitants per year and a high relative risk (3.0). CONCLUSIONS: The knowledge of priority sites for the occurrence of deaths can support public management to reduce inequities in the access to health services and permit an optimization of the resources and teams in the control of pulmonary TB, providing support for specific strategies focused on the most vulnerable populations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Economics is a social science which, therefore, focuses on people and on the decisions they make, be it in an individual context, or in group situations. It studies human choices, in face of needs to be fulfilled, and a limited amount of resources to fulfill them. For a long time, there was a convergence between the normative and positive views of human behavior, in that the ideal and predicted decisions of agents in economic models were entangled in one single concept. That is, it was assumed that the best that could be done in each situation was exactly the choice that would prevail. Or, at least, that the facts that economics needed to explain could be understood in the light of models in which individual agents act as if they are able to make ideal decisions. However, in the last decades, the complexity of the environment in which economic decisions are made and the limits on the ability of agents to deal with it have been recognized, and incorporated into models of decision making in what came to be known as the bounded rationality paradigm. This was triggered by the incapacity of the unboundedly rationality paradigm to explain observed phenomena and behavior. This thesis contributes to the literature in three different ways. Chapter 1 is a survey on bounded rationality, which gathers and organizes the contributions to the field since Simon (1955) first recognized the necessity to account for the limits on human rationality. The focus of the survey is on theoretical work rather than the experimental literature which presents evidence of actual behavior that differs from what classic rationality predicts. The general framework is as follows. Given a set of exogenous variables, the economic agent needs to choose an element from the choice set that is avail- able to him, in order to optimize the expected value of an objective function (assuming his preferences are representable by such a function). If this problem is too complex for the agent to deal with, one or more of its elements is simplified. Each bounded rationality theory is categorized according to the most relevant element it simplifes. Chapter 2 proposes a novel theory of bounded rationality. Much in the same fashion as Conlisk (1980) and Gabaix (2014), we assume that thinking is costly in the sense that agents have to pay a cost for performing mental operations. In our model, if they choose not to think, such cost is avoided, but they are left with a single alternative, labeled the default choice. We exemplify the idea with a very simple model of consumer choice and identify the concept of isofin curves, i.e., sets of default choices which generate the same utility net of thinking cost. Then, we apply the idea to a linear symmetric Cournot duopoly, in which the default choice can be interpreted as the most natural quantity to be produced in the market. We find that, as the thinking cost increases, the number of firms thinking in equilibrium decreases. More interestingly, for intermediate levels of thinking cost, an equilibrium in which one of the firms chooses the default quantity and the other best responds to it exists, generating asymmetric choices in a symmetric model. Our model is able to explain well-known regularities identified in the Cournot experimental literature, such as the adoption of different strategies by players (Huck et al. , 1999), the inter temporal rigidity of choices (Bosch-Dom enech & Vriend, 2003) and the dispersion of quantities in the context of di cult decision making (Bosch-Dom enech & Vriend, 2003). Chapter 3 applies a model of bounded rationality in a game-theoretic set- ting to the well-known turnout paradox in large elections, pivotal probabilities vanish very quickly and no one should vote, in sharp contrast with the ob- served high levels of turnout. Inspired by the concept of rhizomatic thinking, introduced by Bravo-Furtado & Côrte-Real (2009a), we assume that each per- son is self-delusional in the sense that, when making a decision, she believes that a fraction of the people who support the same party decides alike, even if no communication is established between them. This kind of belief simplifies the decision of the agent, as it reduces the number of players he believes to be playing against { it is thus a bounded rationality approach. Studying a two-party first-past-the-post election with a continuum of self-delusional agents, we show that the turnout rate is positive in all the possible equilibria, and that it can be as high as 100%. The game displays multiple equilibria, at least one of which entails a victory of the bigger party. The smaller one may also win, provided its relative size is not too small; more self-delusional voters in the minority party decreases this threshold size. Our model is able to explain some empirical facts, such as the possibility that a close election leads to low turnout (Geys, 2006), a lower margin of victory when turnout is higher (Geys, 2006) and high turnout rates favoring the minority (Bernhagen & Marsh, 1997).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RESUMO: Os glicoconjugados que decoram a superfície celular e os lípidos e proteínas secretados ocupam o ponto de encontro onde normalmente ocorrem interacções críticas homólogas (hospedeiro-hospedeiro) e heterólogas (hospedeiro-patogénio). Apesar de ser largamente aceite que os glicanos são parte integrante do processo de imunidade, continua a não ser claro qual o papel que os glicanos, em toda a sua diversidade, tomam no quadro geral da imunidade. Os glicanos, que são frequentemente terminados por resíduos de ácido siálico, podem ser alterados por factores externos, tais como patogénios, ou por acontecimentos fisiológicos celulares específicos. Normalmente em posição terminal, as glico-estruturas que contêm ácido siálico assumem um papel fundamental numa quantidade substancial de receptores imunes envolvidos na adesividade e tráfico celular, tal como as Selectinas e as Siglecs, das quais se sabe apresentarem uma relevante função imune. À altura do início desta tese, era sabido que os ácidos siálicos expressos à superfície das células poderiam modular mecanismos importantes nas respostas imunes adaptativas. Considerando a posição de charneira que as células dendríticas (DCs) ocupam na transição da resposta imune inata para a adaptativa, antecipámos que os ácidos siálicos poderiam também modular mecanismos relevantes nas DCs humanas. As DCs têm uma função muito relevante na verificação e captura antigénica, migração para os gânglios linfáticos e apresentação antigénica aos linfócitos, uma sequência de funções que conduz, em ultima instância, à indução da resposta inata adaptativa. Considerando estas premissas, a nossa hipótese principal foi que os ácidos siálicos podem influenciar funções relevantes das DCs, tais como captura de antigénios, maturação, migração para os gânglios linfáticos e apresentação antigénica às células Para testar esta hipótese, dividimos o trabalho em quatro partes: 1) Analisámos os glicanos sialilados de superfície, expressos durante a diferenciação de monócitos humanos em DCs (moDCs). Os nossos dados mostraram que a expressão dos glicanos com ligações em O (O-glicanos) e sialilados em α2,3, assim como glicanos com ligações em N (N-glicanos) sialilados em α2,6 e α2,3 aumentou durante o processo de diferenciação das moDCs. Contribuindo para esta nova configuração glicosídica, três sialiltransferases (STs) poderão estar envolvidas: a ST6Gal-1 correlaciona-se com a expressão aumentada de N-glicanos sialilados em α2,6; a ST3Gal-1 contribui para a sialilação em α2,3 de O-glicanos, em especial de antigénios T; e a ST3Gal-4 poderá ser responsável pelo aumento de N-glicanos sialilados em α2,3. Após estímulo e consequente maturação das moDCs, ambos os níveis de expressão génica de ST6Gal-1 e ST3Gal-4 são negativamente modificados sendo, também, que a expressão de ST3Gal-1 varia consoante o estímulo. 2) Estudámos posteriormente as consequências da modulação dos ácidos siálicos de superfície nas funções das DCs. Observámos que a remoção dos ácidos siálicos de superfície diminui significativamente a capacidade de macropinocitose e endocitose mediada por receptores nas moDCs. Em contrapartida, o tratamento com sialidase aumentou significativamente a capacidade das moDCs para fagocitar Escherichia coli. Determinou-se também que este mecanismo requer a existência de ácido siálico presente nas E. coli indicando um mecanismo de interacção hospedeiro-patogénio dependente de ácido siálico em ambas as partes envolvidas. As moDCs tratadas com sialidase também apresentam um nível superior de expressão de moléculas de MHC e moléculas co-estimulatórias, sugerindo um fenótipo celular mais maduro. Recorrendo ao modelo de ratinho, utilizaram-se DCs derivadas de células da medula (BMDCs) de ratinhos deficientes em ST3Gal-1 e ST6Gal-1. Estes ensaios revelaram que quer a endocitose quer a maturação são influenciadas por modificações 37 nos glicanos sialilados em α2,3 ou α2,6. A detecção e quantificação de proteínas Nglicosiladas e sialiladas em α2,6 apontou para um potencial envolvimento de integrinas β2 nestes mecanismos. 3) O efeito da sialilação em α2,6 na migração das DCs para os gânglios linfáticos foi também analisado. Observámos que BMDCs deficientes para ST6Gal-1 apresentam uma redução de cerca de 50% nos níveis de migração das DCs para os gânglios linfáticos, tal como aferido em ensaios de inflamação in situ e estudos de transferência adoptiva de células. Uma redução dos níveis deste tipo de migração foi também observada quando BMDCs nativas foram transferidas para ratinhos receptores deficientes em ST6Gal-1. São, contudo, necessários mais ensaios de forma a identificar as moléculas envolvidas neste processo. 4) Por último, analisámos o impacto da sialilação na estimulação antigénica das DCs às células T. Assim, concluiu-se que moDCs tratadas com sialidase apresentam um nível de expressão superior de IL-12, TNF-ɑ, IL-6 e IL-10, e activação do factor de transcrição nuclear kappa B (NF-κB). As DCs tratadas com sialidase induziram uma maior proliferação nas células T, com expressão correspondente de interferão-γ. Este dado sugere que a remoção de ácidos siálicos de superfície contribui para o desenvolvimento de uma resposta pro-inflamatória do tipo 1 por células T auxiliares (resposta Th1). Considerando estes dados no seu todo, concluímos que o ácido siálico tem um papel marcante nas funções imunes das DCs. Alterações à concentração de ácido siálico à superfície das células podem alterar a endocitose/fagocitose, maturação, migração para os tecidos e gânglios linfáticos e capacidade estimulatória para com as células T. Complementando estes dados, as ligações glicosídicas de ácidos siálicos criados por ST6Gal-1 e ST3Gal-1 são funcionalmente relevantes. A modulação programada da sialilação do glicocálice, mediada por sialidases individuais ou sialiltransferases é uma possibilidade aceitável para a melhoria da fagocitose por DCs e da sua potência imunológica. Este facto tem um significado particular para imunoterapias baseadas em DCs, podendo provar-se decisivo para a sua eficiência e aplicabilidade num futuro muito próximo.-------------------------------ABSTRACT: Glycans decorating cell surface and secreted proteins and lipids occupy the junction where critical host–host and host-pathogen interactions occur. In spite of the wide acceptance that glycans are centrally implicated in immunity, exactly how glycans and their variety and variability contribute to the overall immune response remains poorly defined. Glycans, frequently terminated by sialic acid residues, may be modified by external factors such as pathogens or upon specific physiological cellular events. The terminal, privileged positions of sialic acid-modified structures makes them key, fundamental determinants for a number of immune receptors with known involvement in cellular adhesiveness and cell trafficking, such as Selectins and Siglecs, with known relevant immune functions. At the time this thesis was initiated, it was established that sialic acids expressed at cell surface could modulate important mechanisms of the adaptive immune responses. Given the key role of dendritic cells (DCs) in the transition from innate to the adaptive immune responses, we anticipated that sialic acids could also modulate important mechanisms of human DCs. DCs have a relevant role in antigen screening and uptake, migration to lymph nodes and antigen presentation to lymphocytes, ultimately triggering the adaptive immune response. Therefore, our primary hypothesis was that sialic acids may modulate DC functions, such as antigen uptake, maturation, homing to lymph nodes and antigen presentation to T cells. To test this hypothesis, we divided our work in four parts. 1) Surface sialylated glycans expressed during differentiation from human monocytes to DCs (moDCs) were analyzed. Our data showed that α2,3-sialylated O-glycans and α2,6- and α2,3-sialylated N-glycans expression increased during moDC differentiation. Three main sialyltransferases (STs) are committed with this new glycan configuration: ST6Gal- 1 correlates with the increased expression of α2,6-sialylated N-glycans; ST3Gal-1 32 contributes for the α2,3-sialylation of O-glycans, especially T antigens; and ST3Gal-4 may contribute for the increased α2,3-sialylated N-glycans. Upon moDC maturation, ST6Gal-1 and ST3Gal-4 are downregulated and ST3Gal-1 is altered in a stimulus dependent manner. 2) We subsequently analyzed the consequences of the modulation of cell surface sialic acids in DC functions. We observed that removing surface sialic acid by sialidase significantly decreased the capacity of moDCs to micropinocytose and receptormediated endocytose. In contrast, treatment with a sialidase significantly improved the capacity of moDCs to phagocytose Escherichia coli. The improved phagocytosis mechanism required E. coli sialic acids, indicating a mechanism of host–pathogen interaction dependent on sialic acid moieties. Sialidase-treated moDCs have increased expression of MHC and co-stimulatory molecules, suggesting a more mature phenotype. Experiments using mouse bone marrow-derived DCs (BMDCs) from ST3Gal-1-/- and ST6Gal-1-/- strains indicated that endocytosis and maturation are influenced by changes in either α2,3 or α2,6-sialylated glycans. The analysis of α2,6-sialylated, N-glycosylated proteins, strongly suggested the potential involvement of β2 integrins, underlying these mechanisms. 3) The effect of α2,6-sialylation in DC homing to lymph nodes was also analyzed. We observed that BMDCs deficient for ST6Gal-1 have an almost 50% reduction in DC homing, as assayed by in situ inflammation and adoptive transfer studies. A reduction in DC homing was also observed when wild type BMDCs were transferred into ST6Gal-1-/- recipient mice. Further investigations are necessary to identify the molecules involved in this process. 4) Finally, we also analyzed the impact of sialylation on DCs ability to prime T cells. Sialidase-treated moDCs show increased gene expression of IL-12, TNF-α, IL-6 and IL- 10 cytokines, and activation of the transcription factor nuclear factor-κB. Sialidase33 treated DCs induced a higher proliferative response of T cells with concomitant higher expression of interferon-γ, suggesting that the clearance of cell surface sialic acids contributes to the development of a T helper type 1 proinflammatory response. Together, our data strongly support sialic acid’s relevance in DC immune functions. Alterations of cell surface sialic acid content can alter the endocytosis/phagocytosis, maturation, migration/homing and the ability for T cell priming in human DCs. Moreover, sialic acid linkages created by ST6Gal-1 and ST3Gal-1 are functionally relevant. The engineering of cell surface sialylation, mediated by individual sialidases or sialyltransferases is a likely possibility to fine tune DC phagocytosis and immunological potency, with particular significance to DC-based therapies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Relatório de estágio de mestrado em Educação Pré-Escolar e Ensino do 1ºCiclo do Ensino Básico

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper reports on the experience of the implementation of a new mechanism to assess individual student contribution within project work, where students work in teams to solve a large-scale open-ended interdisciplinary project. The study takes place at the University of Minho, with first year engineering students, enrolled in the Industrial Management and Engineering (Integrated Masters) degree. The aim of this paper is to describe the main principles and procedures underlying the assessment mechanism created and also provide some feedback from its first implementation, based on the students, lecturers and tutors perceptions. For data collection, a survey was sent to all course lecturers and tutors involved in the assessment process. Students also contributed with suggestions, both on a workshop held at the end of the project and also by answering a survey on the overall satisfaction with PBL experience. Findings show a positive level of acceptance of the new mechanism by the students and also by the lecturers and tutors. The study identified the need to clarify the criteria used by the lecturers and the exact role of the tutor, as well as the need for further improvement of its features and procedures. Some recommendations are also issued regarding technical aspects related to some of the steps of the procedures, as well as the need for greater support on the adjustment and final setting of the individual grades.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJECTIVE: To make individual assessments using automated quantification methodology in order to screen for perfusion abnormalities in cerebral SPECT examinations among a sample of subjects with OCD. METHODS: Statistical parametric mapping (SPM) was used to compare 26 brain SPECT images from patients with OCD individually with an image bank of 32 normal subjects, using the statistical threshold of p < 0.05 (corrected for multiple comparisons at the level of individual voxels or clusters). The maps were analyzed, and regions presenting voxels that remained above this threshold were sought. RESULTS: Six patients from a sample of 26 OCD images showed abnormalities at cluster or voxel level, considering the criteria described above, which represented 23.07%. However, seven images from the normal group of 32 were also indicated as cases of perfusional abnormality, representing 21.8% of the sample. CONCLUSION: The automated quantification method was not considered to be a useful tool for clinical practice, for analyses complementary to visual inspection.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Relatório de estágio de mestrado em Ensino de Música

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente relatório constitui-se como uma análise reflexiva do processo de formação do Estágio Pedagógico desenvolvido na Escola Secundária com 2º e 3º ciclos Anselmo de Andrade, em Almada, no ano letivo 2013/2014. O estágio em questão integra o 2º ano do Mestrado em Ensino da Educação Física nos Ensinos Básico e Secundário da Faculdade de Motricidade Humana. O relatório teve por base o Guia de Estágio Pedagógico 2013/2014, que define as competências a adquirir em quatro áreas de intervenção: (1) Organização e gestão do ensino e da aprendizagem, (2) Investigação e inovação pedagógica, (3) Participação na escola e (4) Relação com a comunidade. É feita uma contextualização do estágio seguida de uma descrição e reflexão sobre a prática pedagógica de cada área e uma reflexão sobre a contribuição das aprendizagens para o meu futuro profissional, sendo ainda lançadas algumas propostas de atividades que poderiam ter sido desenvolvidas no estágio pedagógico ou no futuro. É também realizada uma reflexão final sobre todo o processo inerente ao estágio, destacando-o como um processo interligado, e, ainda, uma reflexão sobre a importância do Plano Individual de Formação, efetuando um resumo das competências desenvolvidas ao longo do processo de estágio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este relatório descreve o trabalho realizado no âmbito do estágio do Mestrado em Reabilitação Psicomotora da Faculdade de Motricidade Humana, no Ramo de Aprofundamento de Competências Profissionais. O estágio foi realizado na Clínica da Encarnação, Hospital Dona Estefânia. A Intervenção Psicomotora foi desenvolvida com crianças entre os 3 e os 12 anos. A intervenção da estagiária desenvolveu-se, essencialmente com 32 crianças. Inicialmente é apresentada uma revisão teórica sobre saúde mental, psicomotricidade e aspetos teóricos relativos às principais psicopatologias observadas. Segue-se a caracterização a instituição, bem como do serviço de psicomotricidade. São descritos dois estudos-caso, de modo a exemplificar o trabalho desenvolvido. Para cada um deles é apresentado o processo de avaliação, estruturação do processo terapêutico, resultados e a sua respetiva discussão. Em ambos os casos foram observadas melhorias, verificando-se assim o contributo da intervenção através da psicomotricidade. Por fim, é apresentada uma reflexão, no sentido de compreender e integrar as vivências relativas ao percurso realizado, destacando a importância destas na formação de uma identidade e crescimento a nível profissional e pessoal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + 31; (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na aplicação do X2-teste devemos distinguir dois casos : Á) Quando as classes de variáveis são caracterizadas por freqüências esperadas entre p = 0,1 e p = 0,9, podemos aplicar o X2-teste praticamente sem restrição. É talvez aconselhável, mas não absolutamente necessário limitar o teste aos casos nos quais a freqüência esperada é pelo menos igual a 5. e porisso incluimos na Táboa II os limites da variação de dois binômios ( 1/2 + 1/2)n ( 1/4 + 3/4)n para valo r es pequenos de N e nos três limites convencionais de precisão : ,5%, 1% e 0,1%. Neste caso, os valores dos X2 Índividuais têm apenas valor limitado e devemos sempre tomar em consideração principalmente o X2 total. O valor para cada X2 individual pode ser calculado porqualquer das expressôe seguintes: x2 = (f obs - f esp)²> f. esp = ( f obs - pn)2 pn = ( f obs% - p)2.N p% (100 - p%) O delta-teste dá o mesmo resultado estatístico como o X2-teste com duas classes, sendo o valor do X2-total algébricamente igual ao quadrado do valor de delta. Assim pode ser mais fácil às vezes calcular o X2 total como quadrado do desvio relativo da. variação alternativa : x² = ( f obs -pn)² p. (1-p)N = ( f obs - p %)2.N p% (100 - p%) B) Quando há classes com freqüência esperada menor do que p = 0,1, podemos analisar os seus valores individuais de X2, e desprezar o valor X2 para as classes com p maior do que 0,9. O X2-teste, todavia, pode agora ser aplicado apenas, quando a freqüência esperada for pelo menos igual ou maior do que 5 ou melhor ainda, igual ou maior do que 10. Quando a freqüência esperada for menor do que 5, a variação das freqüências observadas segue uma distribuição de Poisson, não sendo possível a sua substituição pela aproximação Gausseana. A táboa I dá os limites da variação da série de Poisson para freqüências esperadas (em números) desde 0,001 até 15. A vantagem do emprego da nova táboa I para a comparação, classe por classe, entre distribuições esperadas e observadas é explicada num exemplo concreto. Por meio desta táboa obtemos informações muito mais detablhadas do que pelo X2-teste devido ao fato que neste último temos que reunir as classes nas extremidades das distribuições até que a freqüência esperada atinja pelo menos o valor 5. Incluimos como complemento uma táboa dos limites X2, pára 1 até 30 graus de liberdade, tirada de um outro trabalho recente (BRIEGER, 1946). Para valores maiores de graus da liberdade, podemos calcular os limites por dois processos: Podemos usar uma solução dada por Fischer: W30; 2 X² -W30; 2 nf = delta Devem ser aplicados os limites unilaterais da distribuição de Gauss : 5%:1, 64; 1%:2,32; 0,1%:3,09: Uma outra solução podemos obter segundo BRIEGER (1946) calculando o valor: W30; x² / nf = teta X nf = teta e procurando os limites nas táboas para limites unilaterais de distribuições de Fischer, com nl = nf(X2); n2 = inf; (BRIEGER, 1946).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the State of S. Paulo, Brazil, squash plants (Cucurbita spp.) are attacked by the Javanese nematode (Meloidogyne javanica) and by M. incognita acrita. Squash belongs to that group of plants in which the root-knot nematodes break through the root surface, so that the egg-producing females protrude from the root, showing yellowish or brow nish egg masses attached to them. Washed roots show numerous small dark spots, each corresponding to an ootheca, which is adhering to a mature female. A curious abnormal female of M. i. acrita was obtained from a sample of squash roots. This female's body showed two globular parts, separated by a deep constriction. The convoluted ovaries were found to fill both portions of the body.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper we explore the effect of bounded rationality on the convergence of individual behavior toward equilibrium. In the context of a Cournot game with a unique and symmetric Nash equilibrium, firms are modeled as adaptive economic agents through a genetic algorithm. Computational experiments show that (1) there is remarkable heterogeneity across identical but boundedly rational agents; (2) such individual heterogeneity is not simply a consequence of the random elements contained in the genetic algorithm; (3) the more rational agents are in terms of memory abilities and pre-play evaluation of strategies, the less heterogeneous they are in their actions. At the limit case of full rationality, the outcome converges to the standard result of uniform individual behavior.