1000 resultados para Geradores de números aleatórios
Resumo:
A new method to perform TCP/IP fingerprinting is proposed. TCP/IP fingerprinting is the process of identify a remote machine through a TCP/IP based computer network. This method has many applications related to network security. Both intrusion and defence procedures may use this process to achieve their objectives. There are many known methods that perform this process in favorable conditions. However, nowadays there are many adversities that reduce the identification performance. This work aims the creation of a new OS fingerprinting tool that bypass these actual problems. The proposed method is based on the use of attractors reconstruction and neural networks to characterize and classify pseudo-random numbers generators
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
OBJETIVO: Existem vários critérios para a escolha do número de componentes a serem mantidos na análise de componentes principais. Esta escolha pode dar-se por critérios arbitrários (critério de Kaiser p.ex.) ou subjetivos (fatores interpretáveis). Apresenta-se o critério de simulação de Lébart e Dreyfus. MÉTODO: É gerada uma matriz de números aleatórios, sendo realizada a análise de componentes principais a partir dessa matriz. Os componentes extraídos de um conjunto de dados como este representam um limite inferior que deve ser ultrapassado para que um componente possa ser selecionado. Utiliza-se como exemplo a análise de componentes principais da escala de Hamilton para a depressão (17 itens) numa amostra de 130 pacientes. RESULTADOS E CONCLUSÕES: O método de simulação é comparado com o método de Kaiser. É mostrado que o método de simulação mantém apenas os componentes clinicamente significativos ao contrário do método de Kaiser.
Resumo:
A presente dissertação tem como principais objetivos a otimização topológica de materiais compósitos de microestrutura periódica e a análise de efeitos de escala na caracterização das propriedades elásticas dos mesmos. No desenvolvimento deste trabalho, é abordada a teoria da homogeneização que é usualmente utilizada para estimar as propriedades elásticas de materiais compósitos periódicos de modo a tratar um meio heterogéneo como um meio homogéneo com propriedades mecânicas equivalentes. É realizada uma verificação e validação das hipóteses utilizadas por esta teoria, com o fim de determinar em que condições os resultados homogeneizados são credíveis e qual a margem de erro associada a esses mesmos resultados. O modelo de material aqui utilizado é obtido pela repetição de uma célula de base unitária (microestrutura representativa) em todas as direções espaciais. Trata-se de um modelo de material tridimensional de duas fases, sólido e vazio (material poroso). São estudadas diferentes topologias de microestruturas, obtidas através de um algoritmo de otimização topológica utilizando o método da homogeneização inversa. Para que fosse utilizada uma amostra suficientemente representativa de diferentes casos de anisotropia de material, foi utilizado um gerador de números aleatórios para reproduzir os estados de tensão ou deformação a serem utilizados no processo de otimização das microestruturas. Desta forma, é realizado um estudo quanto à anisotropia de material e a sua influência nas propriedades elásticas do material. O estudo de efeitos de escala toma uma grande importância neste trabalho, sendo estimados numericamente os tensores elásticos que caracterizam o material e estudada a sua convergência em relação aos tensores obtidos pelo método da homogeneização. Da mesma forma, é realizado um estudo numérico de convergência da densidade de energia de deformação e de tensão para diferentes condições de ensaios mecânicos. Os resultados indicam que um baixo fator de escala é suficiente para substituir um compósito heterogéneo por um material homogéneo com propriedades elásticas calculadas pela teoria da homogeneização.
Resumo:
O estudo sobre os textos escritos produzidos por alunos da 7ª classe em Angola foi estabelecido por nós com base na hipótese da existência de dificuldades de escrita. Há bastantes dúvidas entre os docentes angolanos sobre a capacidade dos alunos na elaboração de textos espontâneos. Desta forma, com o objectivo de conhecermos as capacidades de produção de textos escritos pelos alunos do ensino geral no Lubango, de elaborarmos uma tipologia de análise dos erros encontrados e de propormos estratégias de superação das dificuldades apresentadas nos textos dos alunos, fomos à Escola do I Ciclo do Ensino Secundário 27 de Março do Lubango – Huíla recolher as composições da Prova Trimestral para verificar as dificuldades de escrita apresentadas nos textos dos alunos. Partimos de 314 textos, dos quais foi extraída a amostra de 10%, correspondendo a 32 textos seleccionados através da tabela de números aleatórios. Os textos foram analisados com base na tipologia de erros de Sousa (1996). Desta forma, foram detectados erros de substituição, de omissão, de divisão/aglutinação, os quais foram muito significativos e ocorreram em 66,856% dos casos no total. Os erros de substituição maiúsculas/minúsculas, os de adição, de grafias homófonas constituem 30.856% dos casos. Confirmam-se as dificuldades apresentadas pelos alunos que devem merecer tratamento através das propostas de remediação apresentadas. As dificuldades encontradas nos textos destes alunos devem servir de base para a planificação da disciplina de Língua Portuguesa no Ensino Primário de forma a dotar o aluno de competências para a melhoria da comunicação escrita na sala de aula.
Resumo:
The objective is to analyze the relationship between risk and number of stocks of a portfolio for an individual investor when stocks are chosen by "naive strategy". For this, we carried out an experiment in which individuals select actions to reproduce this relationship. 126 participants were informed that the risk of first choice would be an asset average of all standard deviations of the portfolios consist of a single asset, and the same procedure should be used for portfolios composed of two, three and so on, up to 30 actions . They selected the assets they want in their portfolios without the support of a financial analysis. For comparison we also tested a hypothetical simulation of 126 investors who selected shares the same universe, through a random number generator. Thus, each real participant is compensated for random hypothetical investor facing the same opportunity. Patterns were observed in the portfolios of individual participants, characterizing the curves for the components of the samples. Because these groupings are somewhat arbitrary, it was used a more objective measure of behavior: a simple linear regression for each participant, in order to predict the variance of the portfolio depending on the number of assets. In addition, we conducted a pooled regression on all observations by analyzing cross-section. The result of pattern occurs on average but not for most individuals, many of which effectively "de-diversify" when adding seemingly random bonds. Furthermore, the results are slightly worse using a random number generator. This finding challenges the belief that only a small number of titles is necessary for diversification and shows that there is only applicable to a large sample. The implications are important since many individual investors holding few stocks in their portfolios
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Pós-graduação em Fisiopatologia em Clínica Médica - FMB
Resumo:
A identificação e descrição dos caracteres litológicos de uma formação são indispensáveis à avaliação de formações complexas. Com este objetivo, tem sido sistematicamente usada a combinação de ferramentas nucleares em poços não-revestidos. Os perfis resultantes podem ser considerados como a interação entre duas fases distintas: • Fase de transporte da radiação desde a fonte até um ou mais detectores, através da formação. • Fase de detecção, que consiste na coleção da radiação, sua transformação em pulsos de corrente e, finalmente, na distribuição espectral destes pulsos. Visto que a presença do detector não afeta fortemente o resultado do transporte da radiação, cada fase pode ser simulada independentemente uma da outra, o que permite introduzir um novo tipo de modelamento que desacopla as duas fases. Neste trabalho, a resposta final é simulada combinando soluções numéricas do transporte com uma biblioteca de funções resposta do detector, para diferentes energias incidentes e para cada arranjo específico de fontes e detectores. O transporte da radiação é calculado através do algoritmo de elementos finitos (FEM), na forma de fluxo escalar 2½-D, proveniente da solução numérica da aproximação de difusão para multigrupos da equação de transporte de Boltzmann, no espaço de fase, dita aproximação P1, onde a variável direção é expandida em termos dos polinômios ortogonais de Legendre. Isto determina a redução da dimensionalidade do problema, tornando-o mais compatível com o algoritmo FEM, onde o fluxo dependa exclusivamente da variável espacial e das propriedades físicas da formação. A função resposta do detector NaI(Tl) é obtida independentemente pelo método Monte Carlo (MC) em que a reconstrução da vida de uma partícula dentro do cristal cintilador é feita simulando, interação por interação, a posição, direção e energia das diferentes partículas, com a ajuda de números aleatórios aos quais estão associados leis de probabilidades adequadas. Os possíveis tipos de interação (Rayleigh, Efeito fotoelétrico, Compton e Produção de pares) são determinados similarmente. Completa-se a simulação quando as funções resposta do detector são convolvidas com o fluxo escalar, produzindo como resposta final, o espectro de altura de pulso do sistema modelado. Neste espectro serão selecionados conjuntos de canais denominados janelas de detecção. As taxas de contagens em cada janela apresentam dependências diferenciadas sobre a densidade eletrônica e a fitologia. Isto permite utilizar a combinação dessas janelas na determinação da densidade e do fator de absorção fotoelétrico das formações. De acordo com a metodologia desenvolvida, os perfis, tanto em modelos de camadas espessas quanto finas, puderam ser simulados. O desempenho do método foi testado em formações complexas, principalmente naquelas em que a presença de minerais de argila, feldspato e mica, produziram efeitos consideráveis capazes de perturbar a resposta final das ferramentas. Os resultados mostraram que as formações com densidade entre 1.8 e 4.0 g/cm3 e fatores de absorção fotoelétrico no intervalo de 1.5 a 5 barns/e-, tiveram seus caracteres físicos e litológicos perfeitamente identificados. As concentrações de Potássio, Urânio e Tório, puderam ser obtidas com a introdução de um novo sistema de calibração, capaz de corrigir os efeitos devidos à influência de altas variâncias e de correlações negativas, observadas principalmente no cálculo das concentrações em massa de Urânio e Potássio. Na simulação da resposta da sonda CNL, utilizando o algoritmo de regressão polinomial de Tittle, foi verificado que, devido à resolução vertical limitada por ela apresentada, as camadas com espessuras inferiores ao espaçamento fonte - detector mais distante tiveram os valores de porosidade aparente medidos erroneamente. Isto deve-se ao fato do algoritmo de Tittle aplicar-se exclusivamente a camadas espessas. Em virtude desse erro, foi desenvolvido um método que leva em conta um fator de contribuição determinado pela área relativa de cada camada dentro da zona de máxima informação. Assim, a porosidade de cada ponto em subsuperfície pôde ser determinada convolvendo estes fatores com os índices de porosidade locais, porém supondo cada camada suficientemente espessa a fim de adequar-se ao algoritmo de Tittle. Por fim, as limitações adicionais impostas pela presença de minerais perturbadores, foram resolvidas supondo a formação como que composta por um mineral base totalmente saturada com água, sendo os componentes restantes considerados perturbações sobre este caso base. Estes resultados permitem calcular perfis sintéticos de poço, que poderão ser utilizados em esquemas de inversão com o objetivo de obter uma avaliação quantitativa mais detalhada de formações complexas.
Resumo:
The objective is to analyze the relationship between risk and number of stocks of a portfolio for an individual investor when stocks are chosen by "naive strategy". For this, we carried out an experiment in which individuals select actions to reproduce this relationship. 126 participants were informed that the risk of first choice would be an asset average of all standard deviations of the portfolios consist of a single asset, and the same procedure should be used for portfolios composed of two, three and so on, up to 30 actions . They selected the assets they want in their portfolios without the support of a financial analysis. For comparison we also tested a hypothetical simulation of 126 investors who selected shares the same universe, through a random number generator. Thus, each real participant is compensated for random hypothetical investor facing the same opportunity. Patterns were observed in the portfolios of individual participants, characterizing the curves for the components of the samples. Because these groupings are somewhat arbitrary, it was used a more objective measure of behavior: a simple linear regression for each participant, in order to predict the variance of the portfolio depending on the number of assets. In addition, we conducted a pooled regression on all observations by analyzing cross-section. The result of pattern occurs on average but not for most individuals, many of which effectively "de-diversify" when adding seemingly random bonds. Furthermore, the results are slightly worse using a random number generator. This finding challenges the belief that only a small number of titles is necessary for diversification and shows that there is only applicable to a large sample. The implications are important since many individual investors holding few stocks in their portfolios
Resumo:
The objective is to analyze the relationship between risk and number of stocks of a portfolio for an individual investor when stocks are chosen by "naive strategy". For this, we carried out an experiment in which individuals select actions to reproduce this relationship. 126 participants were informed that the risk of first choice would be an asset average of all standard deviations of the portfolios consist of a single asset, and the same procedure should be used for portfolios composed of two, three and so on, up to 30 actions . They selected the assets they want in their portfolios without the support of a financial analysis. For comparison we also tested a hypothetical simulation of 126 investors who selected shares the same universe, through a random number generator. Thus, each real participant is compensated for random hypothetical investor facing the same opportunity. Patterns were observed in the portfolios of individual participants, characterizing the curves for the components of the samples. Because these groupings are somewhat arbitrary, it was used a more objective measure of behavior: a simple linear regression for each participant, in order to predict the variance of the portfolio depending on the number of assets. In addition, we conducted a pooled regression on all observations by analyzing cross-section. The result of pattern occurs on average but not for most individuals, many of which effectively "de-diversify" when adding seemingly random bonds. Furthermore, the results are slightly worse using a random number generator. This finding challenges the belief that only a small number of titles is necessary for diversification and shows that there is only applicable to a large sample. The implications are important since many individual investors holding few stocks in their portfolios
Resumo:
Esta pesquisa visa a análise da contribuição de cinco variáveis de entrada e a otimização do desempenho termo-hidráulico de trocadores de calor com venezianas combinados com geradores de vórtices delta-winglets. O desempenho termohidráulico de duas geometrias distintas, aqui nomeadas por GEO1 e GEO2, foram avaliadas. Smoothing Spline ANOVA foi usado para avaliar a contribuição dos parâmetros de entrada na transferência de calor e perda de carga. Considerando aplicação automotiva, foram investigados números de Reynolds iguais a 120 e 240, baseados no diâmetro hidráulico. Os resultados indicaram que o ângulo de venezianas é o maior contribuidor para o aumento do fator de atrito para GEO1 e GEO2, para ambos os números de Reynolds. Para o número de Reynolds menor, o parâmetro mais importante em termos de transferência de calor foi o ângulo das venezianas para ambas as geometrias. Para o número de Reynolds maior, o ângulo de ataque dos geradores de vórtices posicionados na primeira fileira é o maior contribuidor para a tranfesferência de calor, no caso da geometria GEO1, enquanto que o ângulo de ataque dos geradores de vórtices na primeira fileira foi tão importante quanto os ângulos das venezianas para a geometria GEO2. Embora as geometrias analisadas possam ser consideradas como técnicas compostas de intensificação da transferência de calor, não foram observadas interações relevantes entre ângulo de venezianas e parâmetros dos geradores de vórtices. O processo de otimização usa NSGA-II (Non-Dominated Sorting Genetic Algorithm) combinado com redes neurais artificiais. Os resultados mostraram que a adição dos geradores de vórtices em GEO1 aumentaram a transferência de calor em 21% e 23% com aumentos na perda de carga iguais a 24,66% e 36,67% para o menor e maior números de Reynolds, respectivamente. Para GEO2, a transferência de calor aumentou 13% e 15% com aumento na perda de carga de 20,33% e 23,70%, para o menor e maior número de Reynolds, respectivamente. As soluções otimizadas para o fator de Colburn mostraram que a transferência de calor atrás da primeira e da segunda fileiras de geradores de vórtices tem a mesma ordem de magnitude para ambos os números de Reynolds. Os padrões de escoamento e as características de transferência de calor das soluções otimizadas apresentaram comportamentos vi particulares, diferentemente daqueles encontrados quando as duas técnicas de intensificação de transferência de calor são aplicadas separadamente.
Resumo:
A cytotaxonomic analysis of species of Acosmium Schott e Leptolobium Vogel was carried out, by determining their chromosome numbers. The three species of Acosmium and five species of Leptolobium (representing 50% of the genus) were studied from seeds obtained from different regions of Brazil. Chromosome counts were new for all Acosmium species and for four Leptolobium species. For Acosmium cardenasii, 2n = 18 was constantly observed, while occurring at the same meristem were found 2n = 18, 24 e 32 in A. diffusissimum and 2n = 18 e 32 in A. lentiscifolium. For Leptolobium, all studied species had 2n = 18, confirming a previous count for L. dasycarpum. The results showed that chromosome numbers of Acosmium and Leptolobium species are homogeneous, confirming the basic number x = 9 for both genera. Therefore, chromosome numbers do not provide a useful taxonomic character distinguishing Acosmium from Leptolobium.