1000 resultados para Análise multi-hormonal
Resumo:
INTRODUÇÃO: A "cesta básica Dieese e Procon", originada de uma Pesquisa de Padrão de Vida e Emprego no Município de São Paulo, tem sido empregada como parâmetro para o acompanhamento de preços. Seria desejável que um instrumento econômico, utilizado com esta finalidade, correspondesse também a uma nutrição efetivamente saudável. Assim, foram analisados os níveis de adequação dos itens alimentares da cesta básica em relação às necessidades nutricionais de uma família-referência paulistana, e propostas técnicas de complementação dietética para sanar possíveis deficiências ou desbalanceamento. METODOLOGIA: Utilizou-se o Censo Demográfico do IBGE, de 1991, para se determinar a família-referência; adotaram-se dois terços das "Recommended Dietary Allowances" como parâmetro de necessidades nutricionais; e utilizou-se das tabelas de composição centesimal para verificação do aporte de nutrientes da cesta básica. Efetuou-se a complementação alimentar por meio de três diferentes métodos: Ad Hoc (proposta direta e fixa), Programação Linear (proposta via computador e sazonal, com ênfase na minimização de custos), Híbrido (uma combinação dos dois anteriores). RESULTADOS: Foram encontrados valores insuficientes para as vitaminas A, C, B2 e B6 e para os minerais Ca, Mg, Fe, Zn, I e Se; o percentual de lipídios no total calórico mostrou-se elevado. Entre as técnicas de complementação, o método Híbrido pareceu assimilar, mais eficientemente, os baixos custos e os hábitos dietéticos. DISCUSSÃO: Inferiu-se uma eventual correspondência entre os problemas nutricionais detectados na relação de itens da cesta básica e a chamada transição alimentar que se processa nos países em desenvolvimento. Não parece aconselhável que os riscos epidemiológicos associados a essa alteração nos padrões dietéticos sejam incorporados num instrumento econômico que tenha por finalidade mensurar os preços de uma alimentação equilibrada.
Análise dos métodos de medição dos parâmetros geométricos de via e correlação entre os dados obtidos
Resumo:
A razão atribuída à escolha do tema do T.F.M. em Caminhos-de-ferro, tem a ver com o facto de ser uma via de comunicação específica. Contrariamente ao que acontece na execução de auto-estradas, no caminho-de-ferro, a gestora da infra-estrutura responsabiliza-se pela execução, exploração (sinalização e controlo de circulação), abastecimento de energia fornecida às vias que dispõem de catenária (tracção eléctrica), manutenção e conservação da via. O processo de análise e inspecção de geometria de via, é usado quando e necessário preservar a infra-estrutura. Este processo iniciou-se nos caminhos-de-ferro portugueses, há muitos anos, depois da inauguração do primeiro troco de linha férrea. A primeira viagem ocorre em Outubro de 1856, sendo o início do processo em 1968, com a dresina “Matisa PV-6”. Em 1991 a C.P. adquiriu outro veículo de inspecção de via, tendo sido escolhido o VIV02 EM 120 da marca Plasser & Theurer, para substituir “Matisa PV-6”. O tema Análise dos Métodos de Medição dos Parâmetros Geométricos de Via e Correlação entre os Dados Obtidos está directamente relacionado com a manutenção e conservação de via. Na Unidade Operacional Sul (hoje ROS – Região Operacional Sul), local onde desenvolvi o T.F.M., não existem obras de construção de caminhos-de-ferro que pudesse acompanhar e constituir tema para o meu trabalho. Na realidade, com a falta de investimento que se perspectiva no futuro próximo, a manutenção da infra-estrutura passa a ser a actividade principal desenvolvida pela REFER, de modo a assegurar a comodidade, segurança e rapidez na deslocação de cargas e pessoas. A Analise Geométrica de Via e actualmente uma das principais actividades no âmbito da manutenção, que é feita por diagnóstico, contrariamente ao que acontecia no passado em que a conservação metódica era realizada num determinado ano num troço seleccionado independentemente da necessidade ou não da mesma. Uma ajuda preciosa, no que se refere à decisão de se realizar um determinado trabalho de conservação, e a do veículo VIV02 EM 120 que faz inspeções ao longo de toda a rede ferroviária e permite recolher dados e classificar através do desvio padrão, troços com extensão de 200 metros, obtendo os dados relevantes sobre a necessidade de intervenção. Para além do referido veículo existem também equipamentos ligeiros de inspecção dos parâmetros geométricos de via. Um desses equipamentos designa-se por Trólei, não sendo motorizado, pois o mesmo é movido manualmente por um operador. Obviamente que este equipamento não faz a inspecção a toda a rede pois a operação de medição é morosa, sendo contudo utilizado para análise de defeitos geométricos em pequenos trocos, tornando-se assim uma mais-valia, evitando o deslocar de um equipamento “pesado” como o VIV 02 EM 120. Para atingir os objectivos deste trabalho realizaram-se testes de medição com ambos (veiculo e equipamento ligeiro), no mesmo espaço temporal e com as mesmas características físicas, como a temperatura, humidade etc. Os resultados, de acordo com os objectivos, são a comparação entre as medições de ambos, com vista a comprovar a sua utilidade e necessidade, de acordo com os vários tipos de superstruturas constituintes da rede ferroviária nacional.
Resumo:
Este trabalho ocorre face à necessidade da empresa Helisuporte ter uma perspectiva a nível de fiabilidade das suas aeronaves. Para isso, foram traçados como objectivos de estudo a criação de uma base de dados de anomalias; identificação de sistemas e componentes problemáticos; caracterização dos mesmos, avaliar a condição de falha e, com isto, apresentar soluções de controlo de anomalias. Assim, foi desenvolvida uma metodologia que proporciona tratamento de dados com recurso a uma análise não-paramétrica, tendo sido escolhida a estatística de amostra. Esta irá permitir a identificação dos sistemas problemáticos e seus componentes anómalos. Efectuado o tratamento de dados, passamos para a caracterização fiabilística desses componentes, assumindo o tempo de operação e a vida útil específica de cada um. Esta foi possível recorrendo ao cálculo do nível de fiabilidade, MTBF, MTBUR e taxa de avarias. De modo a identificar as diferentes anomalias e caracterizar o “know-how” da equipa de manutenção, implementou-se a análise de condição de falha, mais propriamente a análise dos modos e efeitos de falha. Tendo isso em atenção, foi construído um encadeamento lógico simples, claro e eficaz, face a uma frota complexa. Implementada essa metodologia e analisados os resultados podemos afirmar que os objectivos foram alcançados, concluindo-se que os valores de fiabilidade que caracterizam alguns dos componentes das aeronaves pertencentes à frota em estudo não correspondem ao esperado e idealizado como referência de desempenho dos mesmos. Assim, foram sugeridas alterações no manual de manutenção de forma a melhorar estes índices. Com isto conseguiu-se desenvolver, o que se poderá chamar de, “fiabilidade na óptica do utilizador”.
Resumo:
A larga difusão, nos últimos anos, de softwares estatísticos indicados para análises multivariadas, aliada à facilidade de seu manuseio, poderá conduzir os usuários à obtenção de estimativas enganosas caso não se conheçam os pressupostos teóricos necessários para o emprego destas técnicas. Com o propósito de se destacar alguns desses pressupostos, apresentam-se as etapas executadas para a análise dos dados de um estudo caso-controle, conduzido no Município de São Paulo, entre março de 1993 e fevereiro de 1994, cujo objetivo foi testar a associação do diabetes mellitus com a doença isquêmica do coração após o ajustamento para possíveis variáveis de confusão e/ou modificadoras de efeito. Para uma melhor visualização didática desses pressupostos metodológicos são destacadas quatro etapas fundamentais durante a fase de análise dos dados: a) construção do banco de dados; b) cálculo do poder estatístico; c) categorização e codificação das variáveis e d) a escolha do modelo de regressão logística multivariada.
Resumo:
A liberalização do sector eléctrico, e a consequente criação de mercados de energia eléctrica regulados e liberalizados, mudou a forma de comercialização da electricidade. Em particular, permitiu a entrada de empresas nas actividades de produção e comercialização, aumentando a competitividade e assegurando a liberdade de escolha dos consumidores, para decidir o fornecedor de electricidade que pretenderem. A competitividade no sector eléctrico aumentou a necessidade das empresas que o integram a proporem preços mais aliciantes (do que os preços propostos pelos concorrentes), e contribuiu para o desenvolvimento de estratégias de mercado que atraiam mais clientes e aumentem a eficiência energética e económica. A comercialização de electricidade pode ser realizada em mercados organizados ou através de contratação directa entre comercializadores e consumidores, utilizando os contratos bilaterais físicos. Estes contratos permitem a negociação dos preços de electricidade entre os comercializadores e os consumidores. Actualmente, existem várias ferramentas computacionais para fazer a simulação de mercados de energia eléctrica. Os simuladores existentes permitem simulações de transacções em bolsas de energia, negociação de preços através de contratos bilaterais, e análises técnicas a redes de energia. No entanto, devido à complexidade dos sistemas eléctricos, esses simuladores apresentam algumas limitações. Esta dissertação apresenta um simulador de contratos bilaterais em mercados de energia eléctrica, sendo dando ênfase a um protocolo de ofertas alternadas, desenvolvido através da tecnologia multi-agente. Em termos sucintos, um protocolo de ofertas alternadas é um protocolo de interacção que define as regras da negociação entre um agente vendedor (por exemplo um retalhista) e um agente comprador (por exemplo um consumidor final). Aplicou-se o simulador na resolução de um caso prático, baseado em dados reais. Os resultados obtidos permitem concluir que o simulador, apesar de simplificado, pode ser uma ferramenta importante na ajuda à tomada de decisões inerentes à negociação de contratos bilaterais em mercados de electricidade.
Resumo:
OBJETIVO: Avaliar a concordância de informações pesquisadas sobre causa básica de óbito por acidente de trânsito e compará-las com as codificações feitas a partir das Declarações de Óbitos. MATERIAL E MÉTODO: Foram estudados 50 óbitos por acidentes de trânsito ocorridos em 5 hospitais de Belo Horizonte, MG.Com base nas informações obtidas através de questionário procedeu-se à codificação da causa básica dos óbitos. A seguir foi feita análise de concordância entre esta classificação e a registrada na Declaração do Óbito. RESULTADOS: Foi calculado o Kappa (0,124) com intervalo de confiança 95% (-0,1533 - 0,4022), sendo considerada uma baixa concordância. Os dados mostraram também uma subclassificação de óbitos por acidentes de trânsito, uma vez que 32% dos 50 óbitos estudados foram codificados como acidentes não especificados (E928.9). CONCLUSÃO: Concluiu-se pela necessidade de haver maior esforço na melhoria do preenchimento da Declaração de Óbito pelos médicos legistas que realizam as necrópsias em mortes por acidentes de trânsito.
Resumo:
INTRODUÇÃO: O número de casos notificados de tétano acidental no Estado de São Paulo sofreu redução. O declínio do número de casos de qualquer doença sempre traz transformações no seu perfil epidemiológico, que devem sempre ser analisadas para aprimorar as medidas preventivas. Assim, foi analisado o perfil clínico e epidemiológico dos casos de tétano internados em hospital universitário de Campinas de 1989 a 1996. MATERIAL E MÉTODO: Estudo descritivo e retrospectivo (série de casos). Todos os pacientes com diagnóstico de tétano de janeiro de 1989 a março de 1996, internados no hospital universitário, foram analisados. RESULTADOS: Catorze (28%) eram da zona rural e 36 (72%) da zona urbana. A idade média foi de 47,6 anos e a mediana de 49,5. Dos pacientes da zona rural, 42,8% tinham até 30 anos e 21,42% tinham mais de 50 anos, sendo a média 36,21 e a mediana 34,5; dos pacientes da zona urbana, 13,9% tinham até 30 anos e 58,3% mais de 50 anos, sendo a média de 52,2 e a mediana de 54,5. A letalidade foi de 20%, mais elevada nos pacientes curarizados (60%). CONCLUSÃO: Na região estudada existem dois padrões epidemiológicos: o rural, com maior número de jovens, refletindo uma vacinação inadequada, e o urbano, semelhante ao dos países desenvolvidos, com predomínio das faixas etárias mais altas.
Resumo:
Esta dissertação tem como principais objectivos analisar a conformidade das características de revestimentos descontínuos de coberturas produzidos ou comercializados em Portugal com as exigências preconizadas nas normas europeias aplicáveis. Contudo, e tendo em conta a diversidade do tema, o presente estudo centralizou-se em três tipos de revestimentos descontínuos: fibrocimento, metais e plásticos. Optou-se por uma abordagem teórica complementada por uma campanha experimental. No caso da primeira, serão descritas as características de uma cobertura inclinada e alguns dos principais tipos de revestimentos descontínuos existentes. No que concerne à campanha experimental, para além da pesquisa efectuada ao nível do mercado nacional e dos contactos desenvolvidos para a recolha de amostras, realizaram-se ensaios de natureza geométrica de todas as amostras recolhidas. Em suma, a presente dissertação foi validada através de uma campanha experimental simples, que consistiu na análise do cumprimento das exigências das normas europeias aplicáveis aos produtos ensaiados, resultando numa avaliação crítica aos valores obtidos.
Resumo:
A adequada previsão do comportamento diferido do betão, designadamente da retracção, é essencial no projecto de uma obra de grandes dimensões, permitindo conceber, dimensionar e adoptar as disposições construtivas para um comportamento estrutural que satisfaça os requisitos de segurança, utilização e durabilidade. O actual momento é marcado por uma transição em termos da regulamentação de estruturas, com a eminente substituição da regulamentação nacional por regulamentação europeia. No caso das estruturas de betão, o Regulamento de Estruturas de Betão Armado e Pré-Esforçado (REBAP), em vigor desde 1983, será substituído pelo Eurocódigo 2. Paralelamente, a Federation International du Betón publicou o Model Code 2010 (MC2010), um documento que certamente terá forte influência na evolução da regulamentação das estruturas de betão. Neste contexto, o presente trabalho tem como objectivo estabelecer uma comparação entre os diferentes modelos de previsão da retracção incluídos nos documentos normativos referidos, identificando as principais diferenças e semelhanças entre eles e quantificando a influência dos diferentes factores considerados na sua formulação, de forma a avaliar o impacto que a introdução destes modelos de previsão irá ter no projecto de estruturas de betão. Com o propósito de aferir a forma como estes modelos reflectem a realidade do fenómeno em estudo, procedeu-se à aplicação destes modelos de previsão ao betão de duas obras cujo comportamento estrutural é observado pelo LNEC, concretamente a ponte Miguel Torga, sobre o rio Douro, na Régua, e a ponte sobre o rio Angueira, no distrito de Bragança. Em ambas as obras tinha sido efectuada a caracterização in situ da retracção, tendo-se comparado os valores experimentais assim obtidos com os valores provenientes da aplicação dos modelos de previsão considerados neste trabalho. Finalmente são apresentadas algumas conclusões obtidas com o trabalho desenvolvido nesta dissertação, bem como algumas sugestões para desenvolvimentos futuros.
Resumo:
OBJETIVO: Existem vários critérios para a escolha do número de componentes a serem mantidos na análise de componentes principais. Esta escolha pode dar-se por critérios arbitrários (critério de Kaiser p.ex.) ou subjetivos (fatores interpretáveis). Apresenta-se o critério de simulação de Lébart e Dreyfus. MÉTODO: É gerada uma matriz de números aleatórios, sendo realizada a análise de componentes principais a partir dessa matriz. Os componentes extraídos de um conjunto de dados como este representam um limite inferior que deve ser ultrapassado para que um componente possa ser selecionado. Utiliza-se como exemplo a análise de componentes principais da escala de Hamilton para a depressão (17 itens) numa amostra de 130 pacientes. RESULTADOS E CONCLUSÕES: O método de simulação é comparado com o método de Kaiser. É mostrado que o método de simulação mantém apenas os componentes clinicamente significativos ao contrário do método de Kaiser.
Resumo:
The effects of the Miocene through Present compression in the Tagus Abyssal Plain are mapped using the most up to date available to scientific community multi-channel seismic reflection and refraction data. Correlation of the rift basin fault pattern with the deep crustal structure is presented along seismic line IAM-5. Four structural domains were recognized. In the oceanic realm mild deformation concentrates in Domain I adjacent to the Tore-Madeira Rise. Domain 2 is characterized by the absence of shortening structures, except near the ocean-continent transition (OCT), implying that Miocene deformation did not propagate into the Abyssal Plain, In Domain 3 we distinguish three sub-domains: Sub-domain 3A which coincides with the OCT, Sub-domain 3B which is a highly deformed adjacent continental segment, and Sub-domain 3C. The Miocene tectonic inversion is mainly accommodated in Domain 3 by oceanwards directed thrusting at the ocean-continent transition and continentwards on the continental slope. Domain 4 corresponds to the non-rifted continental margin where only minor extensional and shortening deformation structures are observed. Finite element numerical models address the response of the various domains to the Miocene compression, emphasizing the long-wavelength differential vertical movements and the role of possible rheologic contrasts. The concentration of the Miocene deformation in the transitional zone (TC), which is the addition of Sub-domain 3A and part of 3B, is a result of two main factors: (1) focusing of compression in an already stressed region due to plate curvature and sediment loading; and (2) theological weakening. We estimate that the frictional strength in the TC is reduced in 30% relative to the surrounding regions. A model of compressive deformation propagation by means of horizontal impingement of the middle continental crust rift wedge and horizontal shearing on serpentinized mantle in the oceanic realm is presented. This model is consistent with both the geological interpretation of seismic data and the results of numerical modelling.
Resumo:
In the aftermath of a large-scale disaster, agents' decisions derive from self-interested (e.g. survival), common-good (e.g. victims' rescue) and teamwork (e.g. fire extinction) motivations. However, current decision-theoretic models are either purely individual or purely collective and find it difficult to deal with motivational attitudes; on the other hand, mental-state based models find it difficult to deal with uncertainty. We propose a hybrid, CvI-JI, approach that combines: i) collective 'versus' individual (CvI) decisions, founded on the Markov decision process (MDP) quantitative evaluation of joint-actions, and ii)joint-intentions (JI) formulation of teamwork, founded on the belief-desire-intention (BDI) architecture of general mental-state based reasoning. The CvI-JI evaluation explores the performance's improvement
Resumo:
Nowadays, the cooperative intelligent transport systems are part of a largest system. Transportations are modal operations integrated in logistics and, logistics is the main process of the supply chain management. The supply chain strategic management as a simultaneous local and global value chain is a collaborative/cooperative organization of stakeholders, many times in co-opetition, to perform a service to the customers respecting the time, place, price and quality levels. The transportation, like other logistics operations must add value, which is achieved in this case through compression lead times and order fulfillments. The complex supplier's network and the distribution channels must be efficient and the integral visibility (monitoring and tracing) of supply chain is a significant source of competitive advantage. Nowadays, the competition is not discussed between companies but among supply chains. This paper aims to evidence the current and emerging manufacturing and logistics system challenges as a new field of opportunities for the automation and control systems research community. Furthermore, the paper forecasts the use of radio frequency identification (RFID) technologies integrated into an information and communication technologies (ICT) framework based on distributed artificial intelligence (DAI) supported by a multi-agent system (MAS), as the most value advantage of supply chain management (SCM) in a cooperative intelligent logistics systems. Logistical platforms (production or distribution) as nodes of added value of supplying and distribution networks are proposed as critical points of the visibility of the inventory, where these technological needs are more evident.
Resumo:
INTRODUÇÃO: A ocorrência de leishmaniose tegumentar americana na região do Vale do Paraíba e litoral Norte do Estado de São Paulo foi estudada por meio de sensoriamento remoto orbital e de mapas da região. MÉTODO: As áreas consideradas de risco foram localizadas numa composição de imagens das bandas TM-3,4 e 5 do satélite Landsat, a vegetação arbustiva foi identificada e se procuraram correlações entre aquelas áreas e as características ambientais relevantes e suas mudanças. RESULTADOS: Foi caracterizada uma área de risco que pode se provar um macro habitat para vetores, reservatórios e agentes etiológicos. A busca de mudanças na paisagem e a avaliação dos dados meteorológicos não forneceram nenhum incremento dos possíveis fatores de risco. CONCLUSÕES: Existe plena correlação entre as áreas consideradas de risco e a presença de córregos e vegetação arbustiva.
Resumo:
Reclaimed water from small wastewater treatment facilities in the rural areas of the Beira Interior region (Portugal) may constitute an alternative water source for aquifer recharge. A 21-month monitoring period in a constructed wetland treatment system has shown that 21,500 m(3) year(-1) of treated wastewater (reclaimed water) could be used for aquifer recharge. A GIS-based multi-criteria analysis was performed, combining ten thematic maps and economic, environmental and technical criteria, in order to produce a suitability map for the location of sites for reclaimed water infiltration. The areas chosen for aquifer recharge with infiltration basins are mainly composed of anthrosol with more than 1 m deep and fine sand texture, which allows an average infiltration velocity of up to 1 m d(-1). These characteristics will provide a final polishing treatment of the reclaimed water after infiltration (soil aquifer treatment (SAT)), suitable for the removal of the residual load (trace organics, nutrients, heavy metals and pathogens). The risk of groundwater contamination is low since the water table in the anthrosol areas ranges from 10 m to 50 m. Oil the other hand, these depths allow a guaranteed unsaturated area suitable for SAT. An area of 13,944 ha was selected for study, but only 1607 ha are suitable for reclaimed water infiltration. Approximately 1280 m(2) were considered enough to set up 4 infiltration basins to work in flooding and drying cycles.