15 resultados para Estimated parameter
em Universidade Federal do Pará
Resumo:
A migração com amplitudes verdadeiras de dados de reflexão sísmica, em profundidade ou em tempo, possibilita que seja obtida uma medida dos coeficientes de reflexão dos chamados eventos de reflexão primária. Estes eventos são constituídos, por exemplo, pelas reflexões de ondas longitudinais P-P em refletores de curvaturas arbitrárias e suaves. Um dos métodos mais conhecido é o chamado migração de Kirchhoff, através do qual a imagem sísmica é produzida pela integração do campo de ondas sísmicas, utilizando-se superfícies de difrações, denominadas de Superfícies de Huygens. A fim de se obter uma estimativa dos coeficientes de reflexão durante a migração, isto é a correção do efeito do espalhamento geométrico, utiliza-se uma função peso no operador integral de migração. A obtenção desta função peso é feita pela solução assintótica da integral em pontos estacionários. Tanto no cálculo dos tempos de trânsito como na determinação da função peso, necessita-se do traçamento de raios, o que torna a migração em situações de forte heterogeneidade da propriedade física um processo com alto custo computacional. Neste trabalho é apresentado um algoritmo de migração em profundidade com amplitudes verdadeiras, para o caso em que se tem uma fonte sísmica pontual, sendo o modelo de velocidades em subsuperfície representado por uma função que varia em duas dimensões, e constante na terceira dimensão. Esta situação, conhecida como modelo dois-e-meio dimensional (2,5-D), possui características típicas de muitas situações de interesse na exploração do petróleo, como é o caso da aquisição de dados sísmicos 2-D com receptores ao longo de uma linha sísmica e fonte sísmica 3-D. Em particular, é dada ênfase ao caso em que a velocidade de propagação da onda sísmica varia linearmente com a profundidade. Outro tópico de grande importância abordado nesse trabalho diz respeito ao método de inversão sísmica denominado empilhamento duplo de difrações. Através do quociente de dois empilhamentos com pesos apropriados, pode-se determinar propriedades físicas e parâmetros geométricos relacionados com a trajetória do raio refletido, os quais podem ser utilizados a posteriori no processamento dos dados sísmicos, visando por exemplo, a análise de amplitudes.
Resumo:
Este artigo apresenta um estudo experimental de técnicas de identificação paramétrica aplicadas à modelagem dinâmica de um servidor web Apache. Foi desenvolvido um arranjo experimental para simular variações de carga no servidor. O arranjo é composto por dois computadores PC, sendo um deles utilizado para executar o servidor Apache e o outro utilizado como um gerador de carga, solicitando requisições de serviço ao servidor Apache. Foram estimados modelos paramétricos auto-regressivos (AR) para diferentes pontos de operação e de condição de carga. Cada ponto de operação foi definido em termos dos valores médios para o parâmetro de entrada MaxClients (parâmetro utilizado para definir o número máximo de processos ativos) e a saída percentual de consumo de CPU (Central Processing Unit) do servidor Apache. Para cada ponto de operação foram coletadas 600 amostras, com um intervalo de amostragem de 5 segundos. Metade do conjunto de amostras coletadas em cada ponto de operação foi utilizada para estimação do modelo, enquanto que a outra metade foi utilizada para validação. Um estudo da ordem mais adequada do modelo mostrou que, para um ponto de operação com valor reduzido de MaxClients, um modelo AR de 7a ordem pode ser satisfatório. Para valores mais elevados de MaxClients, os resultados mostraram que são necessários modelos de ordem mais elevada, devido às não-linearidades inerentes ao sistema.
Resumo:
Nesta tese e realizada a investigação experimental de uma estratégia de controle LPV (do inglês, linear parameter varying) aplicada ao amortecimento de oscilações eletromecânicas em sistemas elétricos de potencia. O estudo foi realizado em um modelo de sistema de potencia em escala reduzida de 10kVA, cuja configuração e do tipo maquina interligada a uma barra infinita, alem de testes em campo em uma unidade geradora de 350 MVA da Usina Hidrelétrica de Tucuruvi. Primeiramente, foi desenvolvido e testado computacionalmente um conjunto de rotinas para analise e síntese de controlador amortecedor do tipo LPV, bem como para identificação de modelos LPV da planta. Os coeficientes do controlador amortecedor LPV, no caso um Estabilizador de Sistemas de Potencia (ESP), dependem do valor de uma variável de operação selecionada que, neste estudo, foram as potencias ativa (P) e reativa (Q) nos terminais da unidade geradora. Para fins de projeto, a dinâmica da planta foi representada através de um modelo ARX LPV, o qual foi estimado a partir de dados coletados experimentalmente na planta, para uma ampla faixa de condições operacionais. A partir do modelo LPV da planta, os valores dos parâmetros do ESP LPV foram determinados via um problema de otimização convexa, na forma de uma LMI parametrizada (PLMI). A solução da PLMI e obtida a partir de uma relaxação via decomposição em soma de quadrados. O ESP LPV foi projetado de modo a garantir a estabilidade e o desempenho do sistema para uma ampla faixa de condições operacionais da planta, o que geralmente não e possível de obter com controladores convencionais a parâmetros fixos. A lei de controle amortecedor do ESP LPV foi implementada em um sistema embarcado baseado em um controlador digital de sinais. Os resultados experimentais mostraram um excelente desempenho do ESP LPV no amortecimento de oscilações eletromecânicas, tanto no sistema de potencia em escala reduzida, quanto em uma unidade geradora da UHE de Tucurui.
Resumo:
Neste tutorial apresentamos uma revisão da deconvolução de Euler que consiste de três partes. Na primeira parte, recordamos o papel da clássica formulação da deconvolução de Euler 2D e 3D como um método para localizar automaticamente fontes de campos potenciais anômalas e apontamos as dificuldades desta formulação: a presença de uma indesejável nuvem de soluções, o critério empírico usado para determinar o índice estrutural (um parâmetro relacionado com a natureza da fonte anômala), a exeqüibilidade da aplicação da deconvolução de Euler a levantamentos magnéticos terrestres, e a determinação do mergulho e do contraste de susceptibilidade magnética de contatos geológicos (ou o produto do contraste de susceptibilidade e a espessura quando aplicado a dique fino). Na segunda parte, apresentamos as recentes melhorias objetivando minimizar algumas dificuldades apresentadas na primeira parte deste tutorial. Entre estas melhorias incluem-se: i) a seleção das soluções essencialmente associadas com observações apresentando alta razão sinal-ruído; ii) o uso da correlação entre a estimativa do nível de base da anomalia e a própria anomalia observada ou a combinação da deconvolução de Euler com o sinal analítico para determinação do índice estrutural; iii) a combinação dos resultados de (i) e (ii), permitindo estimar o índice estrutural independentemente do número de soluções; desta forma, um menor número de observações (tal como em levantamentos terrestres) pode ser usado; iv) a introdução de equações adicionais independentes da equação de Euler que permitem estimar o mergulho e o contraste de susceptibilidade das fontes magnéticas 2D. Na terceira parte apresentaremos um prognóstico sobre futuros desenvolvimentos a curto e médio prazo envolvendo a deconvolução de Euler. As principais perspectivas são: i) novos ataques aos problemas selecionados na segunda parte deste tutorial; ii) desenvolvimento de métodos que permitam considerar interferências de fontes localizadas ao lado ou acima da fonte principal, e iii) uso das estimativas de localização da fonte anômala produzidas pela deconvolução de Euler como vínculos em métodos de inversão para obter a delineação das fontes em um ambiente computacional amigável.
Resumo:
O trabalho aplica estudos de genética quantitativa aos registros de búfalos do Estado do Pará, gerando respostas auxiliares aos criadores para a seleção e acasalamento dos animais. A análise de pedigree para estudo da variabilidade genética nos rebanhos participantes do Programa de Melhoramento Genético foi estimada por meio dos cálculos dos parâmetros baseados na probabilidade de origem de gene, coeficiente de endogamia, parentesco e intervalo médio entre gerações, pelo software PEDIG®; do número efetivo de fundadores (Nfun), número efetivo de ancestrais (Na) e intervalo de gerações pelo software PROB_ORIG.exe presente no pacote PEDIG®; do número efetivo de genomas remanescentes (Ng), calculado pelo software SEGREG.exe. Foram calculadas as estatísticas descritivas, a análise de variância e realizado o teste de Normalidade de Shapiro-Wilk por meio do pacote estatístico Statistical Analisys System. As estimativas de herdabilidade para a característica Peso ao Nascer (PN) foram obtidas por meio de inferência Bayesiana pelo programa GIBBS2F90.exe. Os valores genéticos foram obtidos por meio do programa BLUPF90.exe e a regressão das Diferenças Esperadas na Progênie sobre o ano de nascimento foi realizada pelo Excel for Windows para obtenção da tendência genética do PN. O Nfun foi igual a 28,6, o Na igual a 22,8, o Ng igual a 11,2, a razão Nfun/Na foi 1,25, indicando a diminuição do número de reprodutores ao longo dos períodos e a razão Ng/Nfun foi de 0,39. Apesar do intervalo de gerações de 12,5 anos, o número efetivo de gerações foi próximo a cinco. O número total de animais estudados considerados endogâmicos foi 33,4%, sendo a máxima encontrada de 40,8%, a média da endogamia entre os animais endogâmicos foi 10,4%, e o valor médio da endogamia no arquivo total foi 3,5%. O PN de bezerros bubalinos apresentou média e desvio padrão de 36,6 ± 4,7 kg. A característica PN não apresentou distribuição Normal, com valor de W=0,976271 e P
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.
Resumo:
Neste trabalho são apresentadas aproximações lineares e quadráticas das equações de Zoeppritz para a obtenção dos coeficientes de reflexão e transmissão de eventos P-P e P-S em função dos ângulos de incidência e da média angular, bem como a análise de inversão linear de AVO, considerando os eventos de reflexão P-P e P-S dissociados e combinados. O uso das chamadas aproximações pseudo-quadráticas foi aplicado para obtenção de aproximações quadráticas apenas para eventos-PP, em torno dos contrastes médios das velocidades de ondas compressionais e cisalhantes e da razão Vs/Vp. Os resultados das aproximações desenvolvidas neste trabalho mostram que as aproximações quadráticas são mais precisas que as lineares, nas duas versões angulares. As comparações entre as aproximações em termos do ângulo de incidência e da média angular mostram que as aproximações quadráticas são equivalentes dentro do limite angular de [0º, 30º]. Por outro lado, as aproximações lineares em função do ângulo de incidência mostram-se mais precisas que as aproximações lineares em função da média angular. Na inversão linear, fez-se análises de sensibilidade e de ambigüidade e observou-se que, nos caso de eventos de reflexão P-P e P-S dissociados, apenas um parâmetro pode ser estimado e que a combinação destes eventos consegue estabilizar a inversão, permitindo a estimativa de dois dentre os parâmetros físicos dos meios (contrastes de impedância, de velocidade de onda P e de módulo de cisalhamento).
Resumo:
To study the dendritic morphology of retinal ganglion cells in wild-type mice we intracellularly injected these cells with Lucifer yellow in an in vitro preparation of the retina. Subsequently, quantified values of dendritic thickness, number of branching points and level of stratification of 73 Lucifer yellow-filled ganglion cells were analyzed by statistical methods, resulting in a classification into 9 groups. The variables dendritic thickness, number of branching points per cell and level of stratification were independent of each other. Number of branching points and level of stratification were independent of eccentricity, whereas dendritic thickness was positively dependent (r = 0.37) on it. The frequency distribution of dendritic thickness tended to be multimodal, indicating the presence of at least two cell populations composed of neurons with dendritic diameters either smaller or larger than 1.8 µm ("thin" or "thick" dendrites, respectively). Three cells (4.5%) were bistratified, having thick dendrites, and the others (95.5%) were monostratified. Using k-means cluster analysis, monostratified cells with either thin or thick dendrites were further subdivided according to level of stratification and number of branching points: cells with thin dendrites were divided into 2 groups with outer stratification (0-40%) and 2 groups with inner (50-100%) stratification, whereas cells with thick dendrites were divided into one group with outer and 3 groups with inner stratification. We postulate, that one group of cells with thin dendrites resembles cat ß-cells, whereas one group of cells with thick dendrites includes cells that resemble cat a-cells.
Resumo:
The purpose of the present study was to measure contrast sensitivity to equiluminant gratings using steady-state visual evoked cortical potential (ssVECP) and psychophysics. Six healthy volunteers were evaluated with ssVECPs and psychophysics. The visual stimuli were red-green or blue-yellow horizontal sinusoidal gratings, 5° × 5°, 34.3 cd/m2 mean luminance, presented at 6 Hz. Eight spatial frequencies from 0.2 to 8 cpd were used, each presented at 8 contrast levels. Contrast threshold was obtained by extrapolating second harmonic amplitude values to zero. Psychophysical contrast thresholds were measured using stimuli at 6 Hz and static presentation. Contrast sensitivity was calculated as the inverse function of the pooled cone contrast threshold. ssVECP and both psychophysical contrast sensitivity functions (CSFs) were low-pass functions for red-green gratings. For electrophysiology, the highest contrast sensitivity values were found at 0.4 cpd (1.95 ± 0.15). ssVECP CSF was similar to dynamic psychophysical CSF, while static CSF had higher values ranging from 0.4 to 6 cpd (P < 0.05, ANOVA). Blue-yellow chromatic functions showed no specific tuning shape; however, at high spatial frequencies the evoked potentials showed higher contrast sensitivity than the psychophysical methods (P < 0.05, ANOVA). Evoked potentials can be used reliably to evaluate chromatic red-green CSFs in agreement with psychophysical thresholds, mainly if the same temporal properties are applied to the stimulus. For blue-yellow CSF, correlation between electrophysiology and psychophysics was poor at high spatial frequency, possibly due to a greater effect of chromatic aberration on this kind of stimulus.
Resumo:
Este estudo investigou alguns variáveis populacionais da espécie Micoureus demerarae (Thomas, 1905), que incluem: densidade, recrutamento e sobrevivência. Sendo que, os espécimes coletados foram obtidos em dois ecossistemas contíguos, manguezal e terra firme da denominada Fazenda das Salinas, a qual esta localizada próxima ao município de Bragança, no nordeste do Estado do Pará. Para tanto, foram abertas duas transecções em cada ambiente destinadas as coletas realizadas de novembro de 2002 a setembro de 2003. Os resultados definiram uma população aberta com distribuição uniforme para os indivíduos do manguezal e agregada para os da terra firme, além de evidente sazonalidade, com maior proporção de machos na terra firme. O período reprodutivo foi o parâmetro mais importante para a flutuação populacional no início da estação seca. Os impactos ambientais sobre os parâmetros da dinâmica populacional de M. demerarae parecem ser determinantes na manutenção dessas populações da Fazenda das Salinas.
Resumo:
A ambiguidade na inversão de dados de geofísica de poço é estudada através da análise fatorial Q-modal. Este método é baseado na análise de um número finito de soluções aceitáveis, que são ordenadas, no espaço de soluções, segundo a direção de maior ambiguidade. A análise da variação dos parâmetros ao longo dessas soluções ordenadas permite caracterizar aqueles que são mais influentes na ambiguidade. Como a análise Q-modal é baseada na determinação de uma região de ambiguidade, obtida de modo empírico a partir de um número finito de soluções aceitáveis, é possível analisar a ambiguidade devida não só a erros nas observações, como também a pequenos erros no modelo interpretativo. Além disso, a análise pode ser aplicada mesmo quando os modelos interpretativos ou a relação entre os parâmetros não são lineares. A análise fatorial é feita utilizando-se dados sintéticos, e então comparada com a análise por decomposição em valores singulares, mostrando-se mais eficaz, uma vez que requer premissas menos restritivas, permitindo, desse modo, caracterizar a ambiguidade de modo mais realístico. A partir da determinação dos parâmetros com maior influência na ambiguidade do modelo é possível reparametrizá-lo, agrupando-os em um único parâmetro, redefinindo assim o modelo interpretativo. Apesar desta reparametrização incorrer na perda de resolução dos parâmetros agrupados, o novo modelo tem sua ambiguidade bastante reduzida.
Resumo:
O problema do mapeamento de uma interface separando dois meios homogêneos tem sido tradicionalmente resolvido através da continuação para baixo da anomalia gravimétrica observada. Este procedimento requer a utilização de um filtro passa-baixa ou de um parâmetro de amortecimento, que tendem a diminuir a resolução do relevo estimado da interface. Além disso, o uso da continuação para baixo implica supor (desnecessariamente) que a interface é uma superfície harmônica. Desta forma, a utilização da continuação para baixo é restrita a interfaces que apresentam um relevo suave relativamente à sua profundidade média. As restrições impostas pela continuação para baixo do campo gravimétrico são reduzidas na técnica de inversão proposta para este estudo, cujo objetivo é mapear a interface crosta-manto baseada na incorporação de informações a priori sobre o mínimo momento de inércia da fonte causadora, em relação a um eixo de concentração de massa pré-estabelecido e coincidente com o topo da fonte anômala. Além da introdução de informações sobre o mínimo momento, foi incluída também a possibilidade de haver variação lateral e em profundidade de densidade em setores previamente estabelecidos, o que permite estender a aplicação desta técnica a situações geológicas mais complexas que envolvam a reconstituição de corpos justapostos, que sejam de diferentes naturezas, tais como aqueles presentes em zonas de transição crustal. O método de inversão apresentado foi avaliado em testes usando dados sintéticos e os resultados obtidos mostraram a eficiência desta técnica em recuperar corpos alongados horizontalmente, que apresentem como topo ou base, interfaces arbitrárias a serem mapeadas. Foi também constatada a eficácia do método em reconstituir corpos que comportem variação lateral de densidade que pudessem retratar situações em que se deseja investigar a natureza do embasamento em regiões de transição crustal. Com base nos resultados destes testes, a técnica foi então empregada na inversão gravimétrica de cinco perfis do LEPLAC IV que cruzam a região oceânica adjacente à margem continental sudeste brasileira. Os resultados desta aplicação permitiram inferir a natureza dos corpos que constituem o arcabouço estrutural da região onde encontram-se inseridas a Dorsal de São Paulo e a Zona de Fratura de Porto Alegre, assim como mapear a Moho subjacente.
Resumo:
O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.
Resumo:
O objetivo do presente trabalho foi obter dados quantitativos e qualitativos da população folicular ovariana de fêmeas de Cebus apella. Foram obtidos 7 ovários de 4 fêmeas adultas de C. apella através de ovariectomia. Os ovários foram submetidos à preparação para histologia ótica de rotina. O número de folículos pré-antrais e antrais por ovário foi estimado utilizando o Método Fracionador. Os folículos pré-antrais foram classificados em primordial, transição, primário e secundário. Foram considerados folículos antrais todos aqueles que apresentavam uma cavidade antral. Todos os folículos contados foram classificados em normais ou degenerados. Com o intuito de acompanhar o desenvolvimento folicular, os diâmetros médios folicular, oocitário e do núcleo do oócito foram determinados. Todos os resultados foram apresentados em Média ± Erro Padrão. A população média de folículos pré-antrais foi de 56.938 ± 21.888 e 49.133 ± 26.896 para os ovários direito e esquerdo, respectivamente. A percentagem de folículos pré-antrais estimados normais foi de 80,00 ± 4,95 %. O diâmetro médio folicular variou de 22,0 ± 0,5 µm a 61,2 ± 4,0 µm. No tocante aos folículos antrais, a população média de folículos normais e degenerados por ovário foi de 60,0 ± 19,0 e 3 ± 1,8 folículos, respectivamente. O diâmetro médio folicular foi de 514,4 ± 56,6 µm. Para concluir, as informações obtidas neste trabalho poderão servir como parâmetro para posteriores estudos in vivo ou in vitro da foliculogênese de primatas não-humanos neotropicais da espécie C. apella.
Resumo:
Esta tese refere-se ao uso de modelos de attachment de lideres (Leader Progression Model – LPM) para estimativa da distancia de salto, que, junto com dados de densidade de raios como coletado pelo sistema de detecção de raios do SIPAM, são usados para estimar a taxa de flashover em linhas de transmissão de eletricidade na Amazônia. O modelo de progressão de líder desenvolvido nesta tese é denominado ModSalto, que, para estimar a distancia de salto: 1- integra a densidade linear de cargas elétricas devida ao líder, proporcional a prospectiva corrente de primeira descarga (1º stroke) Ip, para determinar o campo elétrico produzido pelo líder descendente na estrutura sob estudo (para-raios, arestas, condutores, etc.); 2 – integra a distribuição imagem do líder descendente, fazendo uso da característica de poder das pontas como fator de estimulo e intensificação do campo elétrico devido a streamers nas partes aguçadas das estruturas sob estudo, para temporizar o momento do processo de attachment. O gatilho para o líder descendente, por hipótese, se deve a ejeção aleatória de pacotes de cargas elétricas em domínios turbulentos no interior das nuvens que recebem energia por processos de cascata da turbulência geral, e o comportamento do líder descendente, deve obedecer à equação da força de Lorentz, no espaço de campos cruzados elétrico devido às nuvens a cima e o campo magnético da Terra, que obriga as cargas do líder a desenvolverem movimentos cicloidais que podem explicar a natureza tortuosa do trajeto do líder descendente. Com o objetivo de formalizar dados consistentes de densidade de raios é feita uma reanalise do conjunto de dados coletado pelo LLS SIPAM de outubro de 2006 a julho de 2008 na região amazônica, com cerca de 3 milhões de eventos, comparando-os com dados de torres instrumentadas para evidenciar-se sua qualidade e usabilidade. Dados de elevação de terreno do SRTM da NASA são usados para gerar formula do raio de atração (Ra) das estruturas passiveis de serem atingidas por raios e para gerar formulas de área de atração, usadas para quantificar o numero de raios que provavelmente atingirão determinada estrutura, baseado no valor de densidade de raios (raios/km2/ano) na área em estudo.