918 resultados para Points and lines


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A hepatite C é um dos principais problemas de saúde pública no Brasil e no mundo, tendo alta prevalência em algumas populações específicas, inclusive em pacientes com insuficiência renal crônica, submetidos à hemodiálise. A disseminação do Vírus da Hepatite C (VHC) neste ambiente pode estar relacionada a diversos fatores, como transfusões sanguíneas freqüentes, tempo de duração do tratamento, compartilhamento de máquinas, cateteres e linhas de diálise, e à dificuldade do diagnóstico da infecção, sobretudo nas fases iniciais, quando ainda não ocorreu a soroconversão de anticorpos (anti-VHC). O objetivo deste trabalho foi descrever a soroprevalência de anti-VHC em pacientes renais crônicos submetidos à hemodiálise no Estado do Amapá, e correlacioná-los com os fatores de risco. Para este fim, foram avaliados 103 prontuários de pacientes do serviço de hemodiálise da unidade de nefrologia do Hospital de Clínicas Dr. Alberto Lima, em Macapá, Amapá, em dezembro de 2007. Os resultados das sorologias para o anti-HCV foram relacionados com os fatores de risco. Os resultados mostraram baixa prevalência de anti-VHC (4,8%), concluindo-se, estarem relacionados à baixa freqüência de transfusões sanguíneas, ao diagnóstico precoce da soroconversão, à não reutilização de máquinas e insumos, à adoção de “boas práticas” nos procedimentos e ao não compartilhamento de frações de injetáveis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho, foi desenvolvido um novo material compósito utilizando-se como matriz a argamassa de cimento reforçado com fibra de sisal a 1% em peso, que foram cortadas manualmente nos comprimentos de 15 mm e 25 mm utilizadas sem tratamento superficial utilizando-se o menor nível possível de processamento tecnológico nas etapas de fabricação. A pesquisa foi direcionada para estudar os mecanismos de falha desse novo material. Os compósitos foram produzidos com moldagem manual utilizando-se vibrador de imersão para melhor adensamento. Foram confeccionados corpos de prova da matriz pura e do compósito com fibra de sisal, com entalhes pré definidos, de 1,7 mm, 3,0 mm e 5,0 mm. As propriedades mecânicas foram avaliadas por ensaio de flexão em três pontos e correlacionadas com o aspecto fractográfico realizados no Microscópio Eletrônico de Varredura. Os resultados mostraram que a presença das fibras de sisal, inseridas na pasta de cimento, provocou restrição à retração plástica da mistura fresca, possivelmente pela elevada capacidade de absorção de água do reforço fibroso, um incremento na resistência mecânica e aumento da tenacidade do compósito em relação a matriz entre as séries de entalhes, diminuindo a tendência de fratura brusca.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Apresentamos três novos métodos estáveis de inversão gravimétrica para estimar o relevo de uma interface arbitrária separando dois meios. Para a garantia da estabilidade da solução, introduzimos informações a priori sobre a interface a ser mapeada, através da minimização de um (ou mais) funcional estabilizante. Portanto, estes três métodos se diferenciam pelos tipos de informação físico-geológica incorporados. No primeiro método, denominado suavidade global, as profundidades da interface são estimadas em pontos discretos, presumindo-se o conhecimento a priori sobre o contraste de densidade entre os meios. Para a estabilização do problema inverso introduzimos dois vínculos: (a) proximidade entre as profundidades estimadas e verdadeiras da interface em alguns pontos fornecidas por furos de sondagem; e (b) proximidade entre as profundidades estimadas em pontos adjacentes. A combinação destes dois vínculos impõe uma suavidade uniforme a toda interface estimada, minimizando, simultaneamente em alguns pontos, os desajustes entre as profundidades conhecidas pelas sondagens e as estimadas nos mesmos pontos. O segundo método, denominado suavidade ponderada, estima as profundidades da interface em pontos discretos, admitindo o conhecimento a priori do contraste de densidade. Neste método, incorpora-se a informação geológica que a interface é suave, exceto em regiões de descontinuidades produzidas por falhas, ou seja, a interface é predominantemente suave porém localmente descontínua. Para a incorporação desta informação, desenvolvemos um processo iterativo em que três tipos de vínculos são impostos aos parâmetros: (a) ponderação da proximidade entre as profundidades estimadas em pontos adjacentes; (b) limites inferior e superior para as profundidades; e (c) proximidade entre todas as profundidades estimadas e um valor numérico conhecido. Inicializando com a solução estimada pelo método da suavidade global, este segundo método, iterativamente, acentua as feições geométricas presentes na solução inicial; ou seja, regiões suaves da interface tendem a tornar-se mais suaves e regiões abruptas tendem a tornar-se mais abruptas. Para tanto, este método atribui diferentes pesos ao vínculo de proximidade entre as profundidades adjacentes. Estes pesos são automaticamente atualizados de modo a acentuar as descontinuidades sutilmente detectadas pela solução da suavidade global. Os vínculos (b) e (c) são usados para compensar a perda da estabilidade, devida à introdução de pesos próximos a zero em alguns dos vínculos de proximidade entre parâmetros adjacentes, e incorporar a informação a priori que a região mais profunda da interface apresenta-se plana e horizontal. O vínculo (b) impõe, de modo estrito, que qualquer profundidade estimada é não negativa e menor que o valor de máxima profundidade da interface conhecido a priori; o vínculo (c) impõe que todas as profundidades estimadas são próximas a um valor que deliberadamente viola a profundidade máxima da interface. O compromisso entre os vínculos conflitantes (b) e (c) resulta na tendenciosidade da solução final em acentuar descontinuidades verticais e apresentar uma estimativa suave e achatada da região mais profunda. O terceiro método, denominado mínimo momento de inércia, estima os contrastes de densidade de uma região da subsuperfície discretizada em volumes elementares prismáticos. Este método incorpora a informação geológica que a interface a ser mapeada delimita uma fonte anômala que apresenta dimensões horizontais maiores que sua maior dimensão vertical, com bordas mergulhando verticalmente ou em direção ao centro de massa e que toda a massa (ou deficiência de massa) anômala está concentrada, de modo compacto, em torno de um nível de referência. Conceitualmente, estas informações são introduzidas pela minimização do momento de inércia das fontes em relação ao nível de referência conhecido a priori. Esta minimização é efetuada em um subespaço de parâmetros consistindo de fontes compactas e apresentando bordas mergulhando verticalmente ou em direção ao centro de massa. Efetivamente, estas informações são introduzidas através de um processo iterativo inicializando com uma solução cujo momento de inércia é próximo a zero, acrescentando, em cada iteração, uma contribuição com mínimo momento de inércia em relação ao nível de referência, de modo que a nova estimativa obedeça a limites mínimo e máximo do contraste de densidade, e minimize, simultaneamente, os desajustes entre os dados gravimétricos observados e ajustados. Adicionalmente, o processo iterativo tende a "congelar" as estimativas em um dos limites (mínimo ou máximo). O resultado final é uma fonte anômala compactada em torno do nível de referência cuja distribuição de constraste de densidade tende ao limite superior (em valor absoluto) estabelecido a priori. Estes três métodos foram aplicados a dados sintéticos e reais produzidos pelo relevo do embasamento de bacias sedimentares. A suavidade global produziu uma boa reconstrução do arcabouço de bacias que violam a condição de suavidade, tanto em dados sintéticos como em dados da Bacia do Recôncavo. Este método, apresenta a menor resolução quando comparado com os outros dois métodos. A suavidade ponderada produziu uma melhoria na resolução de relevos de embasamentos que apresentam falhamentos com grandes rejeitos e altos ângulos de mergulho, indicando uma grande potencialidade na interpretação do arcabouço de bacias extensionais, como mostramos em testes com dados sintéticos e dados do Steptoe Valley, Nevada, EUA, e da Bacia do Recôncavo. No método do mínimo momento de inércia, tomou-se como nível de referência o nível médio do terreno. As aplicações a dados sintéticos e às anomalias Bouguer do Graben de San Jacinto, California, EUA, e da Bacia do Recôncavo mostraram que, em comparação com os métodos da suavidade global e ponderada, este método estima com excelente resolução falhamentos com pequenos rejeitos sem impor a restrição da interface apresentar poucas descontinuidades locais, como no método da suavidade ponderada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

To study the dendritic morphology of retinal ganglion cells in wild-type mice we intracellularly injected these cells with Lucifer yellow in an in vitro preparation of the retina. Subsequently, quantified values of dendritic thickness, number of branching points and level of stratification of 73 Lucifer yellow-filled ganglion cells were analyzed by statistical methods, resulting in a classification into 9 groups. The variables dendritic thickness, number of branching points per cell and level of stratification were independent of each other. Number of branching points and level of stratification were independent of eccentricity, whereas dendritic thickness was positively dependent (r = 0.37) on it. The frequency distribution of dendritic thickness tended to be multimodal, indicating the presence of at least two cell populations composed of neurons with dendritic diameters either smaller or larger than 1.8 µm ("thin" or "thick" dendrites, respectively). Three cells (4.5%) were bistratified, having thick dendrites, and the others (95.5%) were monostratified. Using k-means cluster analysis, monostratified cells with either thin or thick dendrites were further subdivided according to level of stratification and number of branching points: cells with thin dendrites were divided into 2 groups with outer stratification (0-40%) and 2 groups with inner (50-100%) stratification, whereas cells with thick dendrites were divided into one group with outer and 3 groups with inner stratification. We postulate, that one group of cells with thin dendrites resembles cat ß-cells, whereas one group of cells with thick dendrites includes cells that resemble cat a-cells.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pós-graduação em Enfermagem (mestrado profissional) - FMB

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

No hemisfério norte, o censo de aves é fundamental para gerar informações que auxiliam na compreensão de tendências populacionais. Tais censos, devido à marcada sazonalidade deste hemisfério, são realizados durante dois momentos distintos: na estação reprodutiva (aves residentes) e no inverno (quando as aves migratórias deixam determinadas regiões). Na região neotropical, porém, dependendo da localidade, as aves podem se reproduzir durante qualquer ou vários períodos do ano; podem ou não migrar, e aquelas que o fazem podem apresentar um padrão assincrônico. Em contraste com o hemisfério norte, tendências populacionais são desconhecidas, bem como o impacto das taxas rápidas de urbanização e desmatamento, que também são pouco monitoradas. Para melhor entender padrões temporais de riqueza e abundância de aves, e avaliar como um censo similar pode ser implementado na América tropical, foram utilizados pontos de escuta ao longo de 12 meses em uma localidade no Estado de São Paulo, sudeste do Brasil. Os censos ocorreram duas vezes por dia (manhãs/tardes) em uma floresta semidecidual ao longo de transecções com 10 pontos (20 pontos por dia) distantes 200 m entre si e com raio de detecção limitado em 100 m. Ambas as riquezas e abundâncias de aves foram maiores durante as manhãs, mas as curvas de acumulação sugerem que os censos vespertinos com maior esforço amostral podem fornecer resultados similares aos censos matutinos. Riqueza e abundância das aves não variam de acordo com estações (i.e., sem padrão aparente entre reprodução e migração), enquanto espécies exclusivas foram encontradas todos os meses e relativamente poucas espécies (20%) foram registradas em todos os meses do ano. Durante este ano, 84% de todas as aves florestais da área estudada foram registradas. Sugerimos que a metodologia de pontos de escuta pode ser utilizada à semelhança dos censos do hemisfério norte. Recomendamos ainda que o esforço amostral em transecções deva incluir ao menos 20 pontos, e que o início da contagem das aves deva ser sazonal, utilizando o período de migração das espécies austrais (e os seis meses seguintes) para coordenar pontos de escuta. Por último, sugerimos que os censos no Brasil e até mesmo na América Latina podem ajudar no entendimento de tendências populacionais, mas também demandam maior esforço do que o observado em latitudes temperadas, devido à maior riqueza de espécies e diferenças nas dinâmicas de reprodução e migração. Por meio do uso de censos de aves coordenados poderá ser desenvolvida uma técnica para os trópicos que irá gerar informações que permitam acompanhar tendências populacionais, com benefícios para a conservação das aves, similarmente aos censos realizados em países do hemisfério norte.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pós-graduação em Serviço Social - FCHS

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Mecânica - FEG

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The algorithm creates a buffer area around the cartographic features of interest in one of the images and compare it with the other one. During the comparison, the algorithm calculates the number of equals and different points and uses it to calculate the statistical values of the analysis. One calculated statistical value is the correctness, which shows the user the percentage of points that were correctly extracted. Another one is the completeness that shows the percentage of points that really belong to the interest feature. And the third value shows the idea of quality obtained by the extraction method, since that in order to calculate the quality the algorithm uses the correctness and completeness previously calculated. All the performed tests using this algorithm were possible to use the statistical values calculated to represent quantitatively the quality obtained by the extraction method executed. So, it is possible to say that the developed algorithm can be used to analyze extraction methods of cartographic features of interest, since that the results obtained were promising.