1000 resultados para Método de leitura global


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente relatório de estágio enquadra-se no âmbito do Trabalho Final de Mestrado no curso de Engenharia Civil, perfil de Estruturas, do Instituto Superior de Engenharia de Lisboa. Desta forma, foi realizado um estágio na empresa Opway – Engenharia, com a duração de 16 semanas, com integração na Direcção Técnica e de Inovação desempenhando as funções de análise e acompanhamento de obras de arte especiais de médio vão. Pretende-se demonstrar, neste relatório, a grande especificidade deste tipo de construções quer ao nível do Dimensionamento como ao nível da Construção. Ao nível do processo de Dimensionamento são apresentados dois capítulos, um relativo ao projecto de alterações de uma Viga de Lançamento e outro relativo ao projecto de execução de um viaduto construído através deste tipo de cimbres. Desta forma, o Capítulo 2 aborda os principais factores a ter em consideração num caso de adaptação de um cimbre deste tipo, utilizado anteriormente num determinado tabuleiro, para um novo tabuleiro a realizar, com características necessariamente diferentes. Por sua vez, o Capítulo 5 prende-se com uma análise e descrição de um projecto de execução de um tabuleiro de um viaduto construído por este método construtivo. No âmbito de Construção, o Capítulo 3 aborda o método de funcionamento deste tipo de cimbres desde que chega ao local da empreitada, até à sua saída. O Capítulo 4 consiste numa avaliação de soluções para a construção de um tabuleiro, onde a solução inicial consistia na construção por avanços sucessivos enquanto que a solução variante, (adoptada), consiste na construção por lançamento incremental. Neste capítulo está demonstrada a variação de quantidades de materiais entre as duas soluções e consequentemente a sua tradução em valores monetários. Os casos de estudo, que serviram como base de trabalho, ao nível do acompanhamento da construção foram, o Viaduto ferroviário de alta velocidade “O Marco”, em Santiago de Compostela e o Viaduto sobre o Rio Águeda em Ciudad Rodrigo. Ao nível do aspecto de projecto, o caso em estudo foi do Viaduto sobre a Ribeira de Zacarias (V3), integrado na subconcessão do Douro Interior, Alfândega da Fé. Este relatório resulta da análise de documentos relativos aos diferentes tipos de projecto mencionados como também da oportunidade de realização de acompanhamento da construção deste tipo de obras de arte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho entende a dedução das Equações de Compatibilidade, Equilíbrio, bem como as Leis Constitutivas, de modo a resolver numericamente problemas de Elasticidade Linear formulados para Lajes de Betão. A solução numérica é obtida usando o Método dos Elementos Finitos, implementado em freeFEM++, e comparada com os resultados conseguidos no SAP2000 e com os dados tabelados nas Tabelas de Barès, validando-se desta forma os modelos implementados através do freeFEM++.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O cardioversor desfibrilhador implantável (CDI) tem sido associado à redução da morte súbita. O impacto nas dimensões da qualidade de vida (QV) permanece controverso. Método: 36 doentes foram submetidos a implantação de CDI. Foram avaliados antes da intervenção e após ao 3º e 6º mês pelo Kansas City Cardiomiophathy Questionnaire. Resultados: Os sintomas e conhecimento da situação clínica não se modificaram. Ao 3º mês, houve melhoria das actividades de vida diária, funcionalidade e QV, não mantida aos 6 meses. Aos 3º e 6º meses houve melhoria da percepção da satisfação com a vida e estilo de vida. A esperança associou-se à melhoria da percepção da satisfação com a vida. Conclusão: A implantação de CDI, associa-se a um benefício mantido na dimensão social e de percepção pessoal da QV e a um benefício transitório da condição física e percepção global da QV, sem influenciar os sintomas e conhecimento da condição clínica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de captura e recaptura, embora não seja novo, tem sido pouco usado em estudos epidemiológicos. Trata-se de método bem adaptável e adequado para estudar populações incomuns ou esquivas, como usuários de drogas endovenosas. Tem sido usado para estudar populações diversas como prostitutas que trabalham na rua ou volume de células vermelhas no homem. Permite ainda estimar a incidência e a prevalência de doenças de forma mais precisa do que os métodos tradicionais e com uma melhor relação custo-benefício. Devido à sua relevância dentro do campo da epidemiologia, decidiu-se realizar uma revisão sobre esse método, enfocando a história, as principais aplicações e apontando as suposições teóricas que o fundamentam. Seu potencial para futuras pesquisas epidemiológicas é promissor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objectivos estudar a relação entre os teores de aerossóis medidos na cidade de Lisboa e as condições meteorológicas registadas. O período de amostragem decorreu entre 20 de Janeiro e 19 de Fevereiro de 2009, a designada “Campanha de Inverno” do Projecto de Investigação “Contaminação da atmosfera urbana de Lisboa por Hidrocarbonetos Aromáticos Policíclico (PAHLis)”. Foram seleccionados dois locais da cidade de Lisboa com diferentes níveis de poluição: Olivais e Avenida da Liberdade. Nestes locais existem também estações da Rede da Qualidade do Ar cujos dados foram usados para completar e validar os dados por nós recolhidos. O étodo usado para a determinação da concentração de PM foi o método de referência (método gravimétrico) referido pelas normas EN 12341:1998 e EN 14907:2005. Em cada local, foram recolhidas partículas em suspensão no ar através de amostradores Gent e High-Vol. O Gent é um amostrador de baixo volume (cerca de 12 L de ar por minuto) que possui duas unidades de filtros de policarbonato de dois tamanhos de poro sendo assim possível a recolha de partículas PM2.5 e PM10-2.5 separadamente. O High-Vol é um equipamento de amostragem de alto volume (cerca de 1 m3 de ar por minuto) e onde foram usados dois filtros de quartzo em cascata para a recolha de partículas PM2.5 e PM10-2.5. Verificou-se que os amostradores não foram totalmente eficazes na separação das partículas, segundo os diâmetros aerodinâmicos pretendidos. Os dados apresentaram alguma discrepância face aos dados obtidos pelos High-Vol e também face aos dados obtidos pelos medidores das estações. Optou-se assim pela utilização dos dados obtidos com o amostrador High-Vol. Verifica-se que a Avenida da Liberdade é dos locais de estudo o mais poluído e que a concentração da fracção fina é mais elevada. Tal facto deve-se provavelmente à intensa circulação automóvel, principal fonte poluidora no local. Para o período em estudo e neste local, foi obtida uma média de 16.5 µg/m3 de PM 10-2.5 e 21.9 µg/m3 de PM 2.5. No mesmo período registou-se nos Olivais uma média de 9.0 µg/m3 para a fracção grosseira e 12.3 µg/m3 para a fracção fina. Os dados meteorológicos foram fornecidos pelas estações meteorológicas localizadas nas imediações dos locais em estudo: estação MeteoPortela e estação do Instituto Dom Luiz. Foram recolhidos e tratados dados de temperatura, precipitação, humidade, velocidade e direcção do vento. Com recurso à análise de componentes principais (PCA) foi possível verificar a relação e influência das condições meteorológicas sobre os teores de partículas. Foi possível a redução das variáveis iniciais tendo-se concluído que a humidade, a percipitação e a velocidade do vento são as condições que maior influência têm sobre as partículas. Um aumento destas variáveis provoca uma diminuição global do teor das partículas. Para uma clara definição de um modelo PCA para estes dados, os estudos deverão se prolongados no tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Segundo estudos oficiais, a produção de energia eléctrica, principalmente através da queima de combustíveis fósseis, é responsável pelo aumento das emissões de gases de efeito estufa na atmosfera, contribuindo desta forma para o aquecimento global do planeta. Nesse sentido, os governos de diversos países, assumiram vários compromissos a nível internacional, com o propósito de reduzir o impacto ambiental associado à procura global de energia no planeta, assim como a utilização de recursos naturais. Desses compromissos, destaca-se o Protocolo de Quioto, no qual Portugal assumiu o compromisso de não apresentar um aumento de emissões superior a 27% relativamente ao ano de referência de 1990, durante o período de 2008-2012. Nesse sentido, uma das medidas para o controlo dessas emissões, passa pelo uso racional de energia consumida, nomeadamente através do sector doméstico, um dos sectores que registou uma maior subida do consumo de energia eléctrica nos últimos tempos. Uma das formas de o fazer, poderá passar pela escolha racional dos equipamentos que se utilizam hoje em dia no sector doméstico, baseada por sua vez em normas e critérios específicos para o efeito. No presente trabalho, o problema de maximização de eficiência energética é apresentado e formulado como um problema de optimização, sendo a sua resolução suportada em algoritmos evolucionários, nomeadamente algoritmos genéticos como referência o método Simplex para comparação de resultados e posterior validação dos algoritmos genéticos, enquanto método de optimização para a resolução deste tipo de problema. Factores como o ciclo de vida do produto, investimento realizado e despesas no consumo de energia eléctrica, serão tidos em conta, quando existe a necessidade de se obter uma solução ecológica e económica, assegurando ao mesmo tempo a satisfação do consumidor e do meio ambiente. Serão apresentadas ainda, diversas hipóteses de parametrização, tendo em vista os estudos de desempenho dos dois métodos de optimização a serem analisados e será elaborado ainda um estudo, para avaliar o desempenho dos algoritmos genéticos, mediante a variação de parâmetros a ele associados. No final conclui-se que a utilização dos AG’s é adequada ao problema de maximização da eficiência energética providenciando soluções distintas na escolha de equipamentos com valores semelhantes de indicadores económicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação surgiu com o objectivo de se criar uma base de dados de Toners para impressoras e fotocopiadoras e um método fiável de comparação de espectros para estudos forenses e de investigação criminal. Para viabilizar o estudo, efectuou-se à priori a recolha de várias amostras de Toners, de diferentes marcas, de cartuchos originais e remanufacturados aplicando de seguida dois métodos de análise distintos: a Espectroscopia de infravermelho com transformada de Fourier (FT-IR) e a Espectroscopia de Absorção-Reflexão (ATR - Reflectância total atenuada). A espectroscopia FT-IR permitiu obter a base de dados de espectros em suporte KBr e usando o software OPUS, das várias amostras de Toners dos cartuchos originais e remanufacturados recolhidas. Para se criar o método de comparação entre espectros, realizou-se o mesmo procedimento mas agora para amostras obtidas por raspagem de um papel impresso /quadrados 2x2), bem como para o papel de impressão para se poder descontar este da amostra. Dado que o interesse desta análise se remetia ao estudo de textos escritos, efectuou-se a análise de um texto padrão por Espectroscopia FT-IR. O método foi utilizado à posteriori como método de comparação e uma alternativa (não destrutiva) ao método de FT-IR para se aplicar a casos reais. Os espectros foram obtidos num microscópio usando o silício como acessório ATR e o software OMNIC. Finalizado o estudo pode-se concluir, quanto à espectroscopia FT-IR, que as amostras da marca HP e Minolta apresentaram espectros muito semelhantes, quando se faz uma análise global dos mesmos. No entanto, as restantes marcas são também muito parecidas entre si, mas ainda é possível encontrar algumas distinções quando se efectua a comparação visual principalmente abaixo da zona de impressão digital (<6000 cm-1). Relativamente aos Toners remanufacturados, constata-se que são muito semelhantes e que diferem da marca original apenas pelo elevado grau de humidade que possuem. No que diz respeito ao método ATR, verificou-se que apesar de ser um método não destrutivo da amostra revela-se bastante limitado, devido ao uso do cristal de Silício como acessório que só atinge comprimentos de onda entre 4000-1500cm-1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desempenho do ensaio por enzimas imuno-adsorvidas (ELISA), mediante o emprego de conjuntos de reativos produzidos em escala comercial, para determinação de aflatoxina, foi avaliado em condições experimentais, através de análises repetidas, em amostras de leite em pó reconstituído contaminadas com concentrações conhecidas da fração M1 da toxina. Para os níveis de 0,10; 0,20; 0,50; e, 1,00 ng/ml, os percentuais de recuperação foram: 83,0%; 87,5%; 103,0%; e, 111,8%, respectivamente. O desvio-padrão relativo, para as referidas concentrações, foi, respectivamente, 65,5%; 31,8%; 10,9% e 13,6% (n=10, para cada nível de contaminação). Os resultados obtidos demonstram que o método é apropriado para pesquisas e levantamentos sobre a ocorrência de aflatoxina M1 em leite, sobretudo nas faixas de concentração entre 0,20 - 1,00 ng/ml.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objectivos do estudo - Avaliar a influência do Stretching Global Activo com e sem o Kinesio Taping na flexibilidade em jogadores de futebol entre os 18 e os 30 anos antes do treino, utilizando o teste de elevação dos membros inferiores em extensão (straight leg raising).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objectivo do presente trabalho foi desenvolver, implementar e validar métodos de determinação de teor de cálcio (Ca), magnésio (Mg), sódio (Na), potássio (K) e fósforo (P) em biodiesel, por ICP-OES. Este método permitiu efectuar o controlo de qualidade do biodiesel, com a vantagem de proporcionar uma análise multi-elementar, reflectindo-se numa diminuição do tempo de análise. Uma vez que o biodiesel é uma das principais fontes de energia renovável e alternativa ao diesel convencional, este tipo de análises revela-se extremamente útil para a sua caracterização. De acordo com a análise quantitativa e qualitativa e após a validação dos respectivos ensaios, apresentam-se, na Tabela 1 as condições optimizadas para cada elemento em estudo. As condições de trabalho do ICP-OES foram escolhidas tendo em conta as características do elemento em estudo, o tipo de equipamento utilizado para a sua análise, e de modo a obter a melhor razão sinal/intensidade de fundo. Para a validação dos ensaios foram efectuados ensaios de recuperação, determinados limites de detecção e quantificação, ensaios de repetibilidade e reprodutibilidade, e verificação das curvas de calibração. Na tabela 2 apresentam-se os comprimentos de onda escolhidos (livres de interferências) e respectivos limites de detecção e quantificação dos elementos analisados por ICP-OES, na posição radial e radial atenuado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Apresentar uma aplicação da regressão logística para estimar razões de prevalência ou risco relativo, e o uso do método delta para a estimativa de intervalos de confiança. MÉTODOS: Utilizou-se o método delta, visto que esta técnica é adequada para estimar variâncias de funções não lineares de variáveis aleatórias, do tipo razão de proporções. O método baseia-se na expansão da função em série de Taylor, provendo uma aproximação para o cálculo das variâncias. Para estimar as razões de proporções e as respectivas variâncias, que permitem a estimação dos intervalos de confiança, desenvolveu-se programa utilizando-se o módulo matricial do SAS. A aplicação prática do modelo proposto é feita utilizando-se dados de um estudo transversal com uma amostra de 611 mulheres, para testar a hipótese de que a falta de compartilhamento do trabalho doméstico associa-se com altos escores de sintomas psicológicos medidos através de um questionário validado. As razões de prevalência calculadas através da regressão logística, e os intervalos de confiança estimados pelo método delta foram comparadas com os resultados obtidos pela técnica de Mantel-Haenszel. RESULTADOS: As estimativas pontuais das razões de prevalência brutas, cruas ou ajustadas, obtidas através da regressão logística, foram semelhantes às encontradas na análise tabular. Também os limites dos intervalos de confianças para as razões de prevalência através do método delta foram praticamente iguais em relação aos encontrados através da técnica de Mantel-Haenszel. CONCLUSÕES: Os resultados apóiam o uso do método delta para estimar intervalos de confiança para razões de proporção. Esse método deve ser visto como uma alternativa para situações em que o efeito em estudo (variável dependente) não é raro, situação onde a "odds ratio" se afasta das medidas epidemiológicas caracterizadas como razão de proporções.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTRODUÇÃO: A mortalidade infantil em Presidente Prudente, SP (Brasil), foi estudada no período de 1990 a 1992, a partir de aplicação de métodos para obtenção de diagnóstico coletivo que orientassem a identificação e escolha de estratégias de controle de problemas locais. MATERIAL E MÉTODO: Foram utilizadas declarações de óbito colhidas no cartório, cujos dados originais foram corrigidos por meio de pesquisa documental nos serviços de saúde e entrevistas domiciliares. Para estudar variáveis como idade materna e peso ao nascer foram utilizados os dados do Sistema de Informações sobre Nascidos Vivos (SINASC). A qualidade dos dados originais das declarações de óbitos foi inicialmente analisada pela quantidade de informações, sensibilidade, especificidade e valor de Kappa. RESULTADO: A sensibilidade global para a causa básica de óbito foi 78,84% e Kappa igual a 71,32 para o total de causas. Ocorreram 189 óbitos, sendo 66,15% no período neonatal (41,28% durante o primeiro dia de vida) e 33,85% no infantil tardio. O peso ao nascer de 58,28% dos óbitos foi menor que 2.500g. As causas básicas de óbito foram estudadas segundo a possibilidade de serem prevenidas (método desenvolvido por Erica Taucher) por grupos de causas reduzidas utilizadas no "International Collaborative Effort" (ICE), causas múltiplas e distribuição geográfica. Observou-se que nos óbitos ocorridos até 27 dias, 22,23% poderiam ser evitados por adequada atenção ao parto, 20,64% seriam redutíveis por diagnóstico e tratamento precoce, 13,75% por bom controle da gravidez e apenas 7,94% não evitáveis. Das mortes ocorridas no período infantil tardio, 12,17% foram classificadas como outras preveníveis e 4,23% foram consideradas não evitáveis. Segundo os grupos do ICE, 58,74% faleceram por imaturidade ou asfixias; 19,58% por infecções e, 12,17%, por anomalias congênitas. CONCLUSÃO: Os resultados sugerem prioridade para assistência obstétrica no trabalho de parto e atenção pediátrica por baixo peso ao nascer, entre outras. A análise por causas múltiplas mostra que 76,05% dos óbitos têm as causas básicas relacionadas a causas perinatais e confirma a relação entre as deficiências de peso e as complicações respiratórias do recém-nascido. As complicações maternas também relacionaram-se com o baixo peso. Identificaram-se grandes diferenças no coeficiente de mortalidade infantil entre as áreas da zona urbana não somente restritas aos valores, como também ao tipo de doenças responsáveis pela ocorrência do óbito. Conclui-se haver vantagem no uso associado das quatro técnicas que são complementares, tanto para estudo, como para planejamento de ações dirigidas à prevenção da mortalidade infantil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação apresenta o desenvolvimento de um medidor de componentes passivos RLC. Este medidor baseia-se num protótipo desenvolvido para possibilitar a medição da impedância de um dispositivo em teste. Tendo uma carta de aquisição de sinal como interface, o protótipo comunica com um computador que controla todo o processo de medição desde a aquisição e processamento de sinais ao cálculo e visualização dos parâmetros. A topologia de medição implementada é a da ponte auto-balanceada e no processamento recorre-se ao método da desmodulação síncrona ou coerente. A sua viabilidade é suportada por um estudo teórico prévio, pela discussão das opções tomadas no projecto e pelos resultados obtidos através do algoritmo desenvolvido utilizando o software LabVIEW de programação gráfica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As redes de telecomunicações nos últimos anos têm sofrido um grande desenvolvimento a nível tecnológico. A prova disso é a revolução das redes sem fios, iniciada com a tecnologia GSM (Global System Mobile) nos anos 90, na qual eram apenas disponibilizados serviços de voz. Esta tendência continuou com o GPRS (General Packet Radio Service) onde se iniciaram os serviços de dados surgindo assim mais tarde, a tecnologia UMTS (Universal Mobile Telecommunications System). Com o aparecimento da nova tecnologia LTE (Long-Term Evolution), surgiu um novo paradigma consumista no mercado, facto que gerou um conflicto directo com as redes de banda larga (ADSL - Asymmetric Digital Subscriber Line) fornecidas anteriormente apenas pela rede fixa. A partir deste momento, estas duas tecnologias passaram a oferecer altos débitos de dados, eliminando assim esta diferenciação existente até então entre ambas. Esta foi a plataforma que despoletou o meu interesse em explorar a tecnologia LTE, mais precisamente, o planeamento de rádio em ambientes Indoor e Outdoor. Este planeamento requeria uma comparação prática e teórica, de forma a observar que a tecnologia reflectia os valores estipulados na norma LTE. Como método de comparação foi utilizada uma ferramenta de planeamento de redes móveis, gentilmente disponibilizada pela Alcatel-Lucent para o tipo de ambiente outdoor em estudo, para o indoor não foi efectuado simulação, por indisponibilidade da ferramenta. Após a configuração do sistema de rádio foi efectuada a recolha de dados no terreno através de drive-testes. Findo esta fase, procedeu-se ao pós-processamento e análise dos dados recolhidos, por forma a ser possível estabelecer a comparação entre o planeamento teórico efectuado através da ferramenta de planeamento e os dados capturados no terreno. Os resultados obtidos demonstram que a cobertura preconizada no caso Outdoor estavam de acordo com o planeamento efectuado, uma vez que os dados medidos no terreno coincidiram com os valores simulados, apenas com um desvio mínimo dentro da margem de tolerância. No que respeita ao indoor verificou-se que as medidas estavam de acordo com o estipulado na norma. Como conclusão, confirmou-se a validade das ferramentas e da metodologia utilizada.