972 resultados para pseudo-random number generator
Resumo:
Chez plusieurs espèces, les neurones auditifs sensibles à la durée de la stimulation sont présents au niveau des collicules inférieurs. Toutefois, le décours temporel de leur développement fonctionnel est inconnu. Étant donné que le collicule supérieur est l’un des principaux relais sous-cortical impliqué dans l’intégration des stimuli audio-visuels, nous voulons déterminer si le collicule supérieur du rat contient de tels neurones et s’ils sont sensibles et sélectifs à différentes durées de stimulation auditive. De plus, l'originalité de cette étude est de déterminer les étapes de leur maturation fonctionnelle. Des enregistrements neuronaux unitaires et extra-cellulaires sont effectués dans le collicule supérieur de rats juvéniles (P15-P18, P21-P24, P27-P30) et adultes anesthésiés. La sensibilité à la durée est déterminée lors de la présentation de bruits gaussiens (2-10 dB SPL au-dessus du seuil) de durées variables (3-100 ms). Seulement un faible pourcentage des neurones du collicule supérieur est de type passe-bande (3-9% des neurones parmi les ratons et 20% chez les rats adultes). Une différence significative de la distribution entre les différents types de neurones auditifs sensibles à la durée est présente au cours du développement: les neurones de type passe-haut (63-75%) sont présents en majorité chez les groupes juvéniles alors que 43% des neurones sont de type insensible à la durée de la stimulation auditive chez les rats adultes. Ces résultats montrent qu’une population importante de neurones auditifs du collicule supérieur du rat est sensible à la durée des signaux sonores et qu’un développement fonctionnel important survient au cours du premier mois postnatal.
Resumo:
clRNG et clProbdist sont deux interfaces de programmation (APIs) que nous avons développées pour la génération de nombres aléatoires uniformes et non uniformes sur des dispositifs de calculs parallèles en utilisant l’environnement OpenCL. La première interface permet de créer au niveau d’un ordinateur central (hôte) des objets de type stream considérés comme des générateurs virtuels parallèles qui peuvent être utilisés aussi bien sur l’hôte que sur les dispositifs parallèles (unités de traitement graphique, CPU multinoyaux, etc.) pour la génération de séquences de nombres aléatoires. La seconde interface permet aussi de générer au niveau de ces unités des variables aléatoires selon différentes lois de probabilité continues et discrètes. Dans ce mémoire, nous allons rappeler des notions de base sur les générateurs de nombres aléatoires, décrire les systèmes hétérogènes ainsi que les techniques de génération parallèle de nombres aléatoires. Nous présenterons aussi les différents modèles composant l’architecture de l’environnement OpenCL et détaillerons les structures des APIs développées. Nous distinguons pour clRNG les fonctions qui permettent la création des streams, les fonctions qui génèrent les variables aléatoires uniformes ainsi que celles qui manipulent les états des streams. clProbDist contient les fonctions de génération de variables aléatoires non uniformes selon la technique d’inversion ainsi que les fonctions qui permettent de retourner différentes statistiques des lois de distribution implémentées. Nous évaluerons ces interfaces de programmation avec deux simulations qui implémentent un exemple simplifié d’un modèle d’inventaire et un exemple d’une option financière. Enfin, nous fournirons les résultats d’expérimentation sur les performances des générateurs implémentés.
Resumo:
This thesis is devoted to the study of some stochastic models in inventories. An inventory system is a facility at which items of materials are stocked. In order to promote smooth and efficient running of business, and to provide adequate service to the customers, an inventory materials is essential for any enterprise. When uncertainty is present, inventories are used as a protection against risk of stock out. It is advantageous to procure the item before it is needed at a lower marginal cost. Again, by bulk purchasing, the advantage of price discounts can be availed. All these contribute to the formation of inventory. Maintaining inventories is a major expenditure for any organization. For each inventory, the fundamental question is how much new stock should be ordered and when should the orders are replaced. In the present study, considered several models for single and two commodity stochastic inventory problems. The thesis discusses two models. In the first model, examined the case in which the time elapsed between two consecutive demand points are independent and identically distributed with common distribution function F(.) with mean (assumed finite) and in which demand magnitude depends only on the time elapsed since the previous demand epoch. The time between disasters has an exponential distribution with parameter . In Model II, the inter arrival time of disasters have general distribution (F.) with mean ( ) and the quantity destructed depends on the time elapsed between disasters. Demands form compound poison processes with inter arrival times of demands having mean 1/. It deals with linearly correlated bulk demand two
Commodity inventory problem, where each arrival demands a random number of items of each commodity C1 and C2, the maximum quantity demanded being a (< S1) and b(
Resumo:
The thesis entitled Analysis of Some Stochastic Models in Inventories and Queues. This thesis is devoted to the study of some stochastic models in Inventories and Queues which are physically realizable, though complex. It contains a detailed analysis of the basic stochastic processes underlying these models. In this thesis, (s,S) inventory systems with nonidentically distributed interarrival demand times and random lead times, state dependent demands, varying ordering levels and perishable commodities with exponential life times have been studied. The queueing system of the type Ek/Ga,b/l with server vacations, service systems with single and batch services, queueing system with phase type arrival and service processes and finite capacity M/G/l queue when server going for vacation after serving a random number of customers are also analysed. The analogy between the queueing systems and inventory systems could be exploited in solving certain models. In vacation models, one important result is the stochastic decomposition property of the system size or waiting time. One can think of extending this to the transient case. In inventory theory, one can extend the present study to the case of multi-item, multi-echelon problems. The study of perishable inventory problem when the commodities have a general life time distribution would be a quite interesting problem. The analogy between the queueing systems and inventory systems could be exploited in solving certain models.
Resumo:
Two experiments examined the claim for distinct implicit and explicit learning modes in the artificial grammar-learning task (Reber, 1967, 1989). Subjects initially attempted to memorize strings of letters generated by a finite-state grammar and then classified new grammatical and nongrammatical strings. Experiment 1 showed that subjects' assessment of isolated parts of strings was sufficient to account for their classification performance but that the rules elicited in free report were not sufficient. Experiment 2 showed that performing a concurrent random number generation task under different priorities interfered with free report and classification performance equally. Furthermore, giving different groups of subjects incidental or intentional learning instructions did not affect classification or free report.
Resumo:
The Birnbaum-Saunders (BS) model is a positively skewed statistical distribution that has received great attention in recent decades. A generalized version of this model was derived based on symmetrical distributions in the real line named the generalized BS (GBS) distribution. The R package named gbs was developed to analyze data from GBS models. This package contains probabilistic and reliability indicators and random number generators from GBS distributions. Parameter estimates for censored and uncensored data can also be obtained by means of likelihood methods from the gbs package. Goodness-of-fit and diagnostic methods were also implemented in this package in order to check the suitability of the GBS models. in this article, the capabilities and features of the gbs package are illustrated by using simulated and real data sets. Shape and reliability analyses for GBS models are presented. A simulation study for evaluating the quality and sensitivity of the estimation method developed in the package is provided and discussed. (C) 2008 Elsevier B.V. All rights reserved.
Resumo:
A new method to perform TCP/IP fingerprinting is proposed. TCP/IP fingerprinting is the process of identify a remote machine through a TCP/IP based computer network. This method has many applications related to network security. Both intrusion and defence procedures may use this process to achieve their objectives. There are many known methods that perform this process in favorable conditions. However, nowadays there are many adversities that reduce the identification performance. This work aims the creation of a new OS fingerprinting tool that bypass these actual problems. The proposed method is based on the use of attractors reconstruction and neural networks to characterize and classify pseudo-random numbers generators
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Psyllium é uma fonte rica de fibra solúvel mucilaginosa e é considerado um suplemento dietético útil no tratamento de pacientes com hipercolesterolemia. O objetivo deste estudo foi avaliar a eficácia e a segurança da suplementação do psyllium na redução do perfil lipídico em crianças e adolescentes brasileiros dislipidêmicos. Cinqüenta e cinco sujeitos (6-19 anos) com hipercolesterolemia moderada foram avaliados em um estudo clínico, paralelo, duplo cego, controlado e randomizado, conduzido em 2 períodos. Inicialmente, todos participantes recrutados passaram por um estágio de adaptação à dieta restrita em gordura saturada (<7%) e colesterol (<200 mg/dia) que durou 6 semanas antes do tratamento. Após este período, os participantes elegíveis foram alocados aleatoriamente para 2 grupos (controle n=25 e psyllium n=30) usando uma seqüência numerada randomizada gerada por computador. Durante o período de 8 semanas do ensaio clínico, o grupo psyllium manteve a dieta restrita em gordura saturada e colesterol, suplementada diariamente com 7,0 g de psyllium , enquanto o grupo controle recebeu a mesma dieta adicionada com uma quantidade equivalente de celulose (placebo). No final do tratamento, quatro sujeitos foram excluídos após randomização (perdas no seguimento) totalizando 51 sujeitos (grupo controle=24; grupo psyllium n=27), que completaram o estudo. O grupo que recebeu psyllium apresentou um decréscimo significativo nas concentrações de colesterol total (CT) (4,1% [-0,20mmol/L]; p=0,01) e de LDL-colesterol (LDL-c) (7,2% [-0,24 mmol/L]; p<0,001) em comparação à linha de base. Reduções adicionais foram observadas quando comparadas com o grupo controle (CT:4,1% [0,20mmol/L]; p=0,002) e (LDL-c:7,8% [0,26mmol/L]; p=0,007). Nenhum dos participantes relatou aversão ao cheiro, sabor e textura do psyllium, nem a presença de efeitos adversos significativos. A terapia com psyllium se mostrou eficaz na redução das concentrações do LDL-c e demonstrou ser seguro e aceitável pela população do estudo.
Resumo:
As contribuições dos mecanismos de detecção de contraste ao potencial cortical provocado visual (VECP) têm sido investigadas com o estudo das funções de resposta ao contraste e de resposta à frequência espacial. Anteriormente, o uso de sequências-m para o controle da estimulação era restrito à estimulação eletrofisiológica multifocal que, em alguns aspectos, se diferencia substancialmente do VECP convencional. Estimulações únicas com contraste espacial controlado por sequências-m não foram extensivamente estudadas ou comparadas às respostas obtidas com as técnicas multifocais. O objetivo deste trabalho foi avaliar a influência da frequência espacial e do contraste de redes senoidais no VECP gerado por estimulação pseudoaleatória. Nove sujeitos normais foram estimulados por redes senoidais acromáticas controladas por uma sequência-m binária pseudoaleatória em 7 frequências espaciais (0,4 a 10 cpg) em 3 tamanhos diferentes (4º, 8º e 16º de ângulo visual). Em 8º, foram testados adicionalmente seis níveis de contraste (3,12% a 99%). O kernel de primeira ordem não forneceu respostas consistentes com sinais mensuráveis através das frequências espaciais e dos contrastes testados – o sinal foi muito pequeno ou ausente – enquanto o primeiro e o segundo slice do kernel de segunda ordem exibiram respostas bastante confiáveis para as faixas de estímulo testadas. As principais diferenças entre os resultados obtidos com o primeiro e o segundo slice do kernel de segunda ordem foram o perfil das funções de amplitude versus contraste e de amplitude versus frequência espacial. Os resultados indicaram que o primeiro slice do kernel de segunda ordem foi dominado pela via M, porém para algumas condições de estímulo, pôde ser percebida a contribuição da via P. Já o segundo slice do kernel de segunda ordem refletiu contribuição apenas da via P. O presente trabalho estende achados anteriores sobre a contribuição das vias visuais ao VECP gerado por estimulação pseudoaleatória para uma grande faixa de frequências espaciais.
Resumo:
A identificação e descrição dos caracteres litológicos de uma formação são indispensáveis à avaliação de formações complexas. Com este objetivo, tem sido sistematicamente usada a combinação de ferramentas nucleares em poços não-revestidos. Os perfis resultantes podem ser considerados como a interação entre duas fases distintas: • Fase de transporte da radiação desde a fonte até um ou mais detectores, através da formação. • Fase de detecção, que consiste na coleção da radiação, sua transformação em pulsos de corrente e, finalmente, na distribuição espectral destes pulsos. Visto que a presença do detector não afeta fortemente o resultado do transporte da radiação, cada fase pode ser simulada independentemente uma da outra, o que permite introduzir um novo tipo de modelamento que desacopla as duas fases. Neste trabalho, a resposta final é simulada combinando soluções numéricas do transporte com uma biblioteca de funções resposta do detector, para diferentes energias incidentes e para cada arranjo específico de fontes e detectores. O transporte da radiação é calculado através do algoritmo de elementos finitos (FEM), na forma de fluxo escalar 2½-D, proveniente da solução numérica da aproximação de difusão para multigrupos da equação de transporte de Boltzmann, no espaço de fase, dita aproximação P1, onde a variável direção é expandida em termos dos polinômios ortogonais de Legendre. Isto determina a redução da dimensionalidade do problema, tornando-o mais compatível com o algoritmo FEM, onde o fluxo dependa exclusivamente da variável espacial e das propriedades físicas da formação. A função resposta do detector NaI(Tl) é obtida independentemente pelo método Monte Carlo (MC) em que a reconstrução da vida de uma partícula dentro do cristal cintilador é feita simulando, interação por interação, a posição, direção e energia das diferentes partículas, com a ajuda de números aleatórios aos quais estão associados leis de probabilidades adequadas. Os possíveis tipos de interação (Rayleigh, Efeito fotoelétrico, Compton e Produção de pares) são determinados similarmente. Completa-se a simulação quando as funções resposta do detector são convolvidas com o fluxo escalar, produzindo como resposta final, o espectro de altura de pulso do sistema modelado. Neste espectro serão selecionados conjuntos de canais denominados janelas de detecção. As taxas de contagens em cada janela apresentam dependências diferenciadas sobre a densidade eletrônica e a fitologia. Isto permite utilizar a combinação dessas janelas na determinação da densidade e do fator de absorção fotoelétrico das formações. De acordo com a metodologia desenvolvida, os perfis, tanto em modelos de camadas espessas quanto finas, puderam ser simulados. O desempenho do método foi testado em formações complexas, principalmente naquelas em que a presença de minerais de argila, feldspato e mica, produziram efeitos consideráveis capazes de perturbar a resposta final das ferramentas. Os resultados mostraram que as formações com densidade entre 1.8 e 4.0 g/cm3 e fatores de absorção fotoelétrico no intervalo de 1.5 a 5 barns/e-, tiveram seus caracteres físicos e litológicos perfeitamente identificados. As concentrações de Potássio, Urânio e Tório, puderam ser obtidas com a introdução de um novo sistema de calibração, capaz de corrigir os efeitos devidos à influência de altas variâncias e de correlações negativas, observadas principalmente no cálculo das concentrações em massa de Urânio e Potássio. Na simulação da resposta da sonda CNL, utilizando o algoritmo de regressão polinomial de Tittle, foi verificado que, devido à resolução vertical limitada por ela apresentada, as camadas com espessuras inferiores ao espaçamento fonte - detector mais distante tiveram os valores de porosidade aparente medidos erroneamente. Isto deve-se ao fato do algoritmo de Tittle aplicar-se exclusivamente a camadas espessas. Em virtude desse erro, foi desenvolvido um método que leva em conta um fator de contribuição determinado pela área relativa de cada camada dentro da zona de máxima informação. Assim, a porosidade de cada ponto em subsuperfície pôde ser determinada convolvendo estes fatores com os índices de porosidade locais, porém supondo cada camada suficientemente espessa a fim de adequar-se ao algoritmo de Tittle. Por fim, as limitações adicionais impostas pela presença de minerais perturbadores, foram resolvidas supondo a formação como que composta por um mineral base totalmente saturada com água, sendo os componentes restantes considerados perturbações sobre este caso base. Estes resultados permitem calcular perfis sintéticos de poço, que poderão ser utilizados em esquemas de inversão com o objetivo de obter uma avaliação quantitativa mais detalhada de formações complexas.
Resumo:
A seletividade espacial para cor tem sido investigada usando métodos eletrofisiológicos invasivos e não invasivos, e métodos psicofísicos. Em eletrofisiologia cortical visual não invasiva este tópico foi investigado usando métodos convencionais de estimulação periódica e extração de respostas por promediação simples. Novos métodos de estimulação (apresentação pseudo-aleatória) e extração de respostas corticais não invasivas (correlação cruzada) foram desenvolvidos e ainda não foram usados para investigar a seletividade espacial de cor de respostas corticais. Este trabalho objetivou introduzir esse novo método de eletrofisiologia pseudoaleatória para estudar a seletividade espacial de cor. Foram avaliados 14 tricromatas e 16 discromatópsicos com acuidade visual normal ou corrigida. Os voluntários foram avaliados pelo anomaloscópio HMC e teste de figuras de Ishihara para caracterizar a visão de cores quanto à presença de tricromacia. Foram usadas redes senoidais, 8º de ângulo visual, vermelho-verde para 8 frequências espaciais entre 0,2 a 10 cpg. O estímulo foi temporalmente modulado por uma sequência-m binária em um modo de apresentação de padrão reverso. O sistema VERIS foi usado para extrair o primeiro e o segundo slice do kernel de segunda ordem (K2.1 e K2.2, respectivamente). Após a modelagem da resposta às frequências espaciais com função de diferença de gaussianas, extraiu-se a frequência espacial ótima e banda de frequências com amplitudes acima de ¾ da amplitude máxima da função para servirem como indicadores da seletividade espacial da função. Também foi estimada a acuidade visual cromática pelo ajuste de uma função linear aos dados de amplitude a partir da frequência espacial do pico de amplitude até a mais alta frequência espacial testada. Em tricromatas, foi encontrada respostas cromáticas no K2.1 e no K2.2 que apresentaram seletividade espacial diferentes. Os componentes negativos do K2.1 e do K2.2 apresentaram sintonia passa-banda e o componente positivo do K2.1 apresentou sintonia passa-baixa. A acuidade visual estimada de todos os componentes estudados foi próxima àquelas encontradas por Mullen (1985) e Kelly (1983). Diferentes componentes celulares podem estar contribuindo para a geração do VECP pseudoaleatório. Este novo método se candidata a ser uma importante ferramenta para a avaliação não invasiva da visão de cores em humanos.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
In this treatise we consider finite systems of branching particles where the particles move independently of each other according to d-dimensional diffusions. Particles are killed at a position dependent rate, leaving at their death position a random number of descendants according to a position dependent reproduction law. In addition particles immigrate at constant rate (one immigrant per immigration time). A process with above properties is called a branching diffusion withimmigration (BDI). In the first part we present the model in detail and discuss the properties of the BDI under our basic assumptions. In the second part we consider the problem of reconstruction of the trajectory of a BDI from discrete observations. We observe positions of the particles at discrete times; in particular we assume that we have no information about the pedigree of the particles. A natural question arises if we want to apply statistical procedures on the discrete observations: How can we find couples of particle positions which belong to the same particle? We give an easy to implement 'reconstruction scheme' which allows us to redraw or 'reconstruct' parts of the trajectory of the BDI with high accuracy. Moreover asymptotically the whole path can be reconstructed. Further we present simulations which show that our partial reconstruction rule is tractable in practice. In the third part we study how the partial reconstruction rule fits into statistical applications. As an extensive example we present a nonparametric estimator for the diffusion coefficient of a BDI where the particles move according to one-dimensional diffusions. This estimator is based on the Nadaraya-Watson estimator for the diffusion coefficient of one-dimensional diffusions and it uses the partial reconstruction rule developed in the second part above. We are able to prove a rate of convergence of this estimator and finally we present simulations which show that the estimator works well even if we leave our set of assumptions.
Resumo:
Wir betrachten Systeme von endlich vielen Partikeln, wobei die Partikel sich unabhängig voneinander gemäß eindimensionaler Diffusionen [dX_t = b(X_t),dt + sigma(X_t),dW_t] bewegen. Die Partikel sterben mit positionsabhängigen Raten und hinterlassen eine zufällige Anzahl an Nachkommen, die sich gemäß eines Übergangskerns im Raum verteilen. Zudem immigrieren neue Partikel mit einer konstanten Rate. Ein Prozess mit diesen Eigenschaften wird Verzweigungsprozess mit Immigration genannt. Beobachten wir einen solchen Prozess zu diskreten Zeitpunkten, so ist zunächst nicht offensichtlich, welche diskret beobachteten Punkte zu welchem Pfad gehören. Daher entwickeln wir einen Algorithmus, um den zugrundeliegenden Pfad zu rekonstruieren. Mit Hilfe dieses Algorithmus konstruieren wir einen nichtparametrischen Schätzer für den quadrierten Diffusionskoeffizienten $sigma^2(cdot),$ wobei die Konstruktion im Wesentlichen auf dem Auffüllen eines klassischen Regressionsschemas beruht. Wir beweisen Konsistenz und einen zentralen Grenzwertsatz.