999 resultados para método solução salina
Resumo:
Segundo estudos oficiais, a produção de energia eléctrica, principalmente através da queima de combustíveis fósseis, é responsável pelo aumento das emissões de gases de efeito estufa na atmosfera, contribuindo desta forma para o aquecimento global do planeta. Nesse sentido, os governos de diversos países, assumiram vários compromissos a nível internacional, com o propósito de reduzir o impacto ambiental associado à procura global de energia no planeta, assim como a utilização de recursos naturais. Desses compromissos, destaca-se o Protocolo de Quioto, no qual Portugal assumiu o compromisso de não apresentar um aumento de emissões superior a 27% relativamente ao ano de referência de 1990, durante o período de 2008-2012. Nesse sentido, uma das medidas para o controlo dessas emissões, passa pelo uso racional de energia consumida, nomeadamente através do sector doméstico, um dos sectores que registou uma maior subida do consumo de energia eléctrica nos últimos tempos. Uma das formas de o fazer, poderá passar pela escolha racional dos equipamentos que se utilizam hoje em dia no sector doméstico, baseada por sua vez em normas e critérios específicos para o efeito. No presente trabalho, o problema de maximização de eficiência energética é apresentado e formulado como um problema de optimização, sendo a sua resolução suportada em algoritmos evolucionários, nomeadamente algoritmos genéticos como referência o método Simplex para comparação de resultados e posterior validação dos algoritmos genéticos, enquanto método de optimização para a resolução deste tipo de problema. Factores como o ciclo de vida do produto, investimento realizado e despesas no consumo de energia eléctrica, serão tidos em conta, quando existe a necessidade de se obter uma solução ecológica e económica, assegurando ao mesmo tempo a satisfação do consumidor e do meio ambiente. Serão apresentadas ainda, diversas hipóteses de parametrização, tendo em vista os estudos de desempenho dos dois métodos de optimização a serem analisados e será elaborado ainda um estudo, para avaliar o desempenho dos algoritmos genéticos, mediante a variação de parâmetros a ele associados. No final conclui-se que a utilização dos AG’s é adequada ao problema de maximização da eficiência energética providenciando soluções distintas na escolha de equipamentos com valores semelhantes de indicadores económicos.
Resumo:
As vias de comunicação são indispensáveis para o desenvolvimento de uma nação, económica e socialmente. Num mundo globalizado, onde tudo deve chegar ao seu destino no menor espaço de tempo, as vias de comunicação assumem um papel vital. Assim, torna-se essencial construir e manter uma rede de transportes eficiente. Apesar de não ser o método mais eficiente, o transporte rodoviário é muitas vezes o mais económico e possibilita o transporte porta-a-porta, sendo em muitos casos o único meio de transporte possível. Por estas razões, o modo rodoviário tem uma quota significativa no mercado dos transportes, seja de passageiros ou mercadorias, tornando-o extremamente importante na rede de transportes de um país. Os países europeus fizeram um grande investimento na criação de extensas redes de estradas, cobrindo quase todo o seu território. Neste momento, começa-se a atingir o ponto onde a principal preocu+ação das entidades gestoras de estradas deixa de ser a construção de novas vias, passando a focar-se na necessidade de manutenção e conservação das vias existentes. Os pavimentos rodoviários, como todas as outras construções, requerem manutenção de forma a garantir bons níveis de serviço com qualidade, conforto e segurança. Devido aos custos inerentes às operações de manutenção de pavimentos, estas devem rigorosamente e com base em critérios científicos bem definidos. Assim, pretende-se evitar intervenções desnecessárias, mas também impedir que os danos se tornem irreparáveis e economicamente prejudiciais, com repercussões na segurança dos utilizadores. Para se estimar a vida útil de um pavimento é essencial realizar primeiro a caracterização estrutural do mesmo. Para isso, torna-se necessário conhecer o tipo de estrutura de um pavimento, nomeadamente a espessura e o módulo de elasticidade constituintes. A utilização de métodos de ensaio não destrutivos é cada vez mais reconhecida como uma forma eficaz para obter informações sobre o comportamento estrutural de pavimentos. Para efectuar estes ensaios, existem vários equipamentos. No entanto, dois deles, o Deflectómetro de Impacto e o Radar de Prospecção, têm demonstrado ser particularmente eficientes para avaliação da capacidade de carga de um pavimento, sendo estes equipamentos utilizados no âmbito deste estudo. Assim, para realização de ensaios de carga em pavimentos, o equipamento Deflectómetro de Impacto tem sido utilizado com sucesso para medir as deflexões à superfície de um pavimento em pontos pré-determinados quando sujeito a uma carga normalizada de forma a simular o efeito da passagem da roda de um camião. Complementarmente, para a obtenção de informações contínuas sobre a estrutura de um pavimento, o equipamento Radar de Prospecção permite conhecer o número de camadas e as suas espessuras através da utilização de ondas electromagnéticas. Os dados proporcionam, quando usados em conjunto com a realização de sondagens à rotação e poços em alguns locais, permitem uma caracterização mais precisa da condição estrutural de um pavimento e o estabelecimento de modelos de resposta, no caso de pavimentos existentes. Por outro lado, o processamento dos dados obtidos durante os ensaios “in situ” revela-se uma tarefa morosa e complexa. Actualmente, utilizando as espessuras das camadas do pavimento, os módulos de elasticidade das camadas são calculados através da “retro-análise” da bacia de deflexões medida nos ensaios de carga. Este método é iterativo, sendo que um engenheiro experiente testa várias estruturas diferentes de pavimento, até se obter uma estrutura cuja resposta seja o mais próximo possível da obtida durante os ensaios “in Situ”. Esta tarefa revela-se muito dependente da experiência do engenheiro, uma vez que as estruturas de pavimento a serem testadas maioritariamente do seu raciocínio. Outra desvantagem deste método é o facto de apresentar soluções múltiplas, dado que diferentes estruturas podem apresentar modelos de resposta iguais. A solução aceite é, muitas vezes, a que se julga mais provável, baseando-se novamente no raciocínio e experiência do engenheiro. A solução para o problema da enorme quantidade de dados a processar e das múltiplas soluções possíveis poderá ser a utilização de Redes Neuronais Artificiais (RNA) para auxiliar esta tarefa. As redes neuronais são elementos computacionais virtuais, cujo funcionamento é inspirado na forma como os sistemas nervosos biológicos, como o cérebro, processam a informação. Estes elementos são compostos por uma série de camadas, que por sua vez são compostas por neurónios. Durante a transmissão da informação entre neurónios, esta é modificada pela aplicação de um coeficiente, denominado “peso”. As redes neuronais apresentam uma habilidade muito útil, uma vez que são capazes de mapear uma função sem conhecer a sua fórmula matemática. Esta habilidade é utilizada em vários campos científicos como o reconhecimento de padrões, classificação ou compactação de dados. De forma a possibilitar o uso desta característica, a rede deverá ser devidamente “treinada” antes, processo realizado através da introdução de dois conjuntos de dados: os valores de entrada e os valores de saída pretendidos. Através de um processo cíclico de propagação da informação através das ligações entre neurónios, as redes ajustam-se gradualmente, apresentando melhores resultados. Apesar de existirem vários tipos de redes, as que aparentam ser as mais aptas para esta tarefa são as redes de retro-propagação. Estas possuem uma característica importante, nomeadamente o treino denominado “treino supervisionado”. Devido a este método de treino, as redes funcionam dentro da gama de variação dos dados fornecidos para o “treino” e, consequentemente, os resultados calculados também se encontram dentro da mesma gama, impedindo o aparecimento de soluções matemáticas com impossibilidade prática. De forma a tornar esta tarefa ainda mais simples, foi desenvolvido um programa de computador, NNPav, utilizando as RNA como parte integrante do seu processo de cálculo. O objectivo é tornar o processo de “retro-análise” totalmente automático e prevenir erros induzidos pela falta de experiência do utilizador. De forma a expandir ainda mais as funcionalidades do programa, foi implementado um processo de cálculo que realiza uma estimativa da capacidade de carga e da vida útil restante do pavimento, recorrendo a dois critérios de ruína. Estes critérios são normalmente utilizados no dimensionamento de pavimentos, de forma a prevenir o fendilhamento por fadiga e as deformações permanentes. Desta forma, o programa criado permite a estimativa da vida útil restante de um pavimento de forma eficiente, directamente a partir das deflexões e espessuras das camadas, medidas nos ensaios “in situ”. Todos os passos da caracterização estrutural do pavimento são efectuados pelo NNPav, seja recorrendo à utilização de redes neuronais ou a processos de cálculo matemático, incluindo a correcção do módulo de elasticidade da camada de misturas betuminosas para a temperatura de projecto e considerando as características de tráfego e taxas de crescimento do mesmo. Os testes efectuados às redes neuronais revelaram que foram alcançados resultados satisfatórios. Os níveis de erros na utilização de redes neuronais são semelhantes aos obtidos usando modelos de camadas linear-elásticas, excepto para o cálculo da vida útil com base num dos critérios, onde os erros obtidos foram mais altos. No entanto, este processo revela-se bastante mais rápido e possibilita o processamento dos dados por pessoal com menos experiência. Ao mesmo tempo, foi assegurado que nos ficheiros de resultados é possível analisar todos os dados calculados pelo programa, em várias fases de processamento de forma a permitir a análise detalhada dos mesmos. A possibilidade de estimar a capacidade de carga e a vida útil restante de um pavimento, contempladas no programa desenvolvido, representam também ferramentas importantes. Basicamente, o NNPav permite uma análise estrutural completa de um pavimento, estimando a sua vida útil com base nos ensaios de campo realizados pelo Deflectómetro de Impacto e pelo Radar de Prospecção, num único passo. Complementarmente, foi ainda desenvolvido e implementado no NNPav um módulo destinado ao dimensionamento de pavimentos novos. Este módulo permite que, dado um conjunto de estruturas de pavimento possíveis, seja estimada a capacidade de carga e a vida útil daquele pavimento. Este facto permite a análise de uma grande quantidade de estruturas de pavimento, e a fácil comparação dos resultados no ficheiro exportado. Apesar dos resultados obtidos neste trabalho serem bastante satisfatórios, os desenvolvimentos futuros na aplicação de Redes Neuronais na avaliação de pavimentos são ainda mais promissores. Uma vez que este trabalho foi limitado a uma moldura temporal inerente a um trabalho académico, a possibilidade de melhorar ainda mais a resposta das RNA fica em aberto. Apesar dos vários testes realizados às redes, de forma a obter as arquitecturas que apresentassem melhores resultados, as arquitecturas possíveis são virtualmente ilimitadas e pode ser uma área a aprofundar. As funcionalidades implementadas no programa foram as possíveis, dentro da moldura temporal referida, mas existem muitas funcionalidades a serem adicinadas ou expandidas, aumentando a funcionalidade do programa e a sua produtividade. Uma vez que esta é uma ferramenta que pode ser aplicada ao nível de gestão de redes rodoviárias, seria necessário estudar e desenvolver redes similares de forma a avaliar outros tipos de estruturas de pavimentos. Como conclusão final, apesar dos vários aspectos que podem, e devem ser melhorados, o programa desenvolvido provou ser uma ferramenta bastante útil e eficiente na avaliação estrutural de pavimentos com base em métodos de ensaio não destrutivos.
Resumo:
O desempenho do ensaio por enzimas imuno-adsorvidas (ELISA), mediante o emprego de conjuntos de reativos produzidos em escala comercial, para determinação de aflatoxina, foi avaliado em condições experimentais, através de análises repetidas, em amostras de leite em pó reconstituído contaminadas com concentrações conhecidas da fração M1 da toxina. Para os níveis de 0,10; 0,20; 0,50; e, 1,00 ng/ml, os percentuais de recuperação foram: 83,0%; 87,5%; 103,0%; e, 111,8%, respectivamente. O desvio-padrão relativo, para as referidas concentrações, foi, respectivamente, 65,5%; 31,8%; 10,9% e 13,6% (n=10, para cada nível de contaminação). Os resultados obtidos demonstram que o método é apropriado para pesquisas e levantamentos sobre a ocorrência de aflatoxina M1 em leite, sobretudo nas faixas de concentração entre 0,20 - 1,00 ng/ml.
Resumo:
O objectivo do presente trabalho foi desenvolver, implementar e validar métodos de determinação de teor de cálcio (Ca), magnésio (Mg), sódio (Na), potássio (K) e fósforo (P) em biodiesel, por ICP-OES. Este método permitiu efectuar o controlo de qualidade do biodiesel, com a vantagem de proporcionar uma análise multi-elementar, reflectindo-se numa diminuição do tempo de análise. Uma vez que o biodiesel é uma das principais fontes de energia renovável e alternativa ao diesel convencional, este tipo de análises revela-se extremamente útil para a sua caracterização. De acordo com a análise quantitativa e qualitativa e após a validação dos respectivos ensaios, apresentam-se, na Tabela 1 as condições optimizadas para cada elemento em estudo. As condições de trabalho do ICP-OES foram escolhidas tendo em conta as características do elemento em estudo, o tipo de equipamento utilizado para a sua análise, e de modo a obter a melhor razão sinal/intensidade de fundo. Para a validação dos ensaios foram efectuados ensaios de recuperação, determinados limites de detecção e quantificação, ensaios de repetibilidade e reprodutibilidade, e verificação das curvas de calibração. Na tabela 2 apresentam-se os comprimentos de onda escolhidos (livres de interferências) e respectivos limites de detecção e quantificação dos elementos analisados por ICP-OES, na posição radial e radial atenuado.
Resumo:
OBJETIVO: Apresentar uma aplicação da regressão logística para estimar razões de prevalência ou risco relativo, e o uso do método delta para a estimativa de intervalos de confiança. MÉTODOS: Utilizou-se o método delta, visto que esta técnica é adequada para estimar variâncias de funções não lineares de variáveis aleatórias, do tipo razão de proporções. O método baseia-se na expansão da função em série de Taylor, provendo uma aproximação para o cálculo das variâncias. Para estimar as razões de proporções e as respectivas variâncias, que permitem a estimação dos intervalos de confiança, desenvolveu-se programa utilizando-se o módulo matricial do SAS. A aplicação prática do modelo proposto é feita utilizando-se dados de um estudo transversal com uma amostra de 611 mulheres, para testar a hipótese de que a falta de compartilhamento do trabalho doméstico associa-se com altos escores de sintomas psicológicos medidos através de um questionário validado. As razões de prevalência calculadas através da regressão logística, e os intervalos de confiança estimados pelo método delta foram comparadas com os resultados obtidos pela técnica de Mantel-Haenszel. RESULTADOS: As estimativas pontuais das razões de prevalência brutas, cruas ou ajustadas, obtidas através da regressão logística, foram semelhantes às encontradas na análise tabular. Também os limites dos intervalos de confianças para as razões de prevalência através do método delta foram praticamente iguais em relação aos encontrados através da técnica de Mantel-Haenszel. CONCLUSÕES: Os resultados apóiam o uso do método delta para estimar intervalos de confiança para razões de proporção. Esse método deve ser visto como uma alternativa para situações em que o efeito em estudo (variável dependente) não é raro, situação onde a "odds ratio" se afasta das medidas epidemiológicas caracterizadas como razão de proporções.
Resumo:
A presente dissertação apresenta o desenvolvimento de um medidor de componentes passivos RLC. Este medidor baseia-se num protótipo desenvolvido para possibilitar a medição da impedância de um dispositivo em teste. Tendo uma carta de aquisição de sinal como interface, o protótipo comunica com um computador que controla todo o processo de medição desde a aquisição e processamento de sinais ao cálculo e visualização dos parâmetros. A topologia de medição implementada é a da ponte auto-balanceada e no processamento recorre-se ao método da desmodulação síncrona ou coerente. A sua viabilidade é suportada por um estudo teórico prévio, pela discussão das opções tomadas no projecto e pelos resultados obtidos através do algoritmo desenvolvido utilizando o software LabVIEW de programação gráfica.
Resumo:
Nesta dissertação pretende-se simular o comportamento dinâmico de uma laje de betão armado aplicando o Método de Elementos Finitos através da sua implementação no programa FreeFEM++. Este programa permite-nos a análise do modelo matemático tridimensional da Teoria da Elasticidade Linear, englobando a Equação de Equilíbrio, Equação de Compatibilidade e Relações Constitutivas. Tratando-se de um problema dinâmico é necessário recorrer a métodos numéricos de Integração Directa de modo a obter a resposta em termos de deslocamento ao longo do tempo. Para este trabalho escolhemos o Método de Newmark e o Método de Euler para a discretização temporal, um pela sua popularidade e o outro pela sua simplicidade de implementação. Os resultados obtidos pelo FreeFEM++ são validados através da comparação com resultados adquiridos a partir do SAP2000 e de Soluções Teóricas, quando possível.
Resumo:
Tese de Doutoramento em Biologia apresentada à Faculdade de Ciências da Universidade do Porto, 2015.
Resumo:
OBJETIVO: Existem vários critérios para a escolha do número de componentes a serem mantidos na análise de componentes principais. Esta escolha pode dar-se por critérios arbitrários (critério de Kaiser p.ex.) ou subjetivos (fatores interpretáveis). Apresenta-se o critério de simulação de Lébart e Dreyfus. MÉTODO: É gerada uma matriz de números aleatórios, sendo realizada a análise de componentes principais a partir dessa matriz. Os componentes extraídos de um conjunto de dados como este representam um limite inferior que deve ser ultrapassado para que um componente possa ser selecionado. Utiliza-se como exemplo a análise de componentes principais da escala de Hamilton para a depressão (17 itens) numa amostra de 130 pacientes. RESULTADOS E CONCLUSÕES: O método de simulação é comparado com o método de Kaiser. É mostrado que o método de simulação mantém apenas os componentes clinicamente significativos ao contrário do método de Kaiser.
Resumo:
INTRODUÇÃO: Os poucos estudos existentes apontam para o consumo abusivo de medicamentos em crianças, sendo os médicos os principais responsáveis pela indicação. Para conhecer melhor os padrões de consumo de medicamentos, foi feito estudo em crianças no primeiro trimestre de vida, segundo variáveis sociais, biológicas, padrões alimentares e ultilização de serviços de saúde. MÉTODO: Estudou-se uma amostra de 655 crianças nascidas em 1993, residentes na zona urbana de Pelotas, Brasil. Informações sobre o consumo de medicamentos na quinzena precedente à entrevista foram coletadas ao final do primeiro e do terceiro mês. RESULTADOS: Com um mês, 65% das crianças consumiam medicamentos e com três meses, 69%. Três ou mais medicamentos foram consumidos por 17% das crianças em cada acompanhamento. Combinações de três ou mais fármacos (um indicador de má qualidade do medicamento) foram usadas por 14% no primeiro mês e por 19% no terceiro mês. Aos três meses, 20% das crianças consumiam medicamentos cronicamente. Com um mês, os medicamentos mais consumidos foram Cloreto de Benzalcônio + Soro Fisiológico, Dimeticona + Homatropina e Nistatina solução. Aos três meses foram Ácido Acetil Salicílico, Cloreto de Benzalcônio + Soro Fisiológico e Dimeticona + Homatropina. O principal problema referido como motivo de uso foi cólica no primeiro acompanhamento e resfriado, no segundo. Na análise ajustada, o consumo de medicamentos no primeiro mês foi 64% menor para as crianças que tinham três ou mais irmãos menores do que para primogênitos. Crianças não amamentadas ao final do primeiro mês apresentaram um risco 75% maior de haver consumido medicamentos. Resultados semelhantes foram observados para o consumo no terceiro mês. CONCLUSÃO: Desde a mais tenra idade, as crianças são habituadas a conviver com uma medicalização exagerada de sintomas corriqueiros. Não estaria assim sendo preparado o terreno para futuras dependências de medicamentos ou outras drogas?
Resumo:
Nesta dissertação desenvolveu-se um programa de cálculo automático que efectua a análise estrutural de placas, sujeitas a acções estáticas e considerando um comportamento isotrópico elástico linear dos materiais. Este programa foi elaborado em linguagem Fortran. O método que se utilizou para o cálculo das estruturas é baseado na teoria dos elementos finitos, tendo sido adoptados elementos finitos com dois graus de liberdade por nó (duas translações), associados ao método dos deslocamentos para a sua resolução. Para permitir a representação dos resultados obtidos pelo programa, utilizou-se um módulo gráfico comercial: GiD. A validação do programa desenvolvido foi feita a partir da comparação dos resultados calculados de alguns exemplos com os obtidos através de um programa de cálculo estrutural de referência: SAP2000. Esta dissertação contempla ainda um manual, que tem como finalidade o fornecimento de indicações para a correcta utilização do software desenvolvido, o qual inclui orientações para a introdução de dados e respectiva interpretação de resultados.
Resumo:
O principal objectivo da presente dissertação foi o desenvolvimento de um programa de cálculo automático de estruturas reticulares planas. A execução deste trabalho insere-se num programa mais vasto e ambicioso, em que se pretende desenvolver um pacote de cálculo automático de estruturas para utilização académica. Este pacote incluirá o tipo de elementos mais utilizado na Engenharia Civil, podendo efectuar análises lineares e não-lineares, considerando acções estáticas e dinâmicas. Pretende-se também dotar este pacote com o dimensionamento e verificação da segurança dos elementos estruturais. O programa foi desenvolvido recorrendo ao Método dos Elementos Finitos. Em face da aplicação deste método é efectuada uma breve resenha histórica, incluindo o seu desenvolvimento, campos de aplicação e importância na Engenharia Civil para o cálculo de estruturas. Foram implementados elementos finitos do tipo barra 2D de secção constante, em que se admitiu um material isotrópico com comportamento elástico linear. O programa permite a aplicação de cargas estáticas nos nós e elementos de barra, assentamentos de apoio, e fornece os resultados de forma gráfica e numérica. A validação do programa de cálculo foi efectuada através da comparação dos resultados obtidos pelo programa com um outro Programa de cálculo estrutural comercial (SAP2000) e com valores apresentados na bibliografia [LNEC, 1984]. Com o objectivo de incluir este trabalho num pacote de programas mais abrangentes, foi elaborado um fluxograma onde são descritos os blocos principais que compõem o programa desenvolvido e um manual de utilização devidamente pormenorizado.
Resumo:
OBJETIVO: Propor alterações simplificadoras em plano de amostragem para estimar a densidade larvária de Aedes aegypti, partindo da avaliação de sua eficiência e simplicidade. MÉTODOS: Avaliou-se o plano de amostragem utilizado pela Superintendência de Controle de Endemias do Estado de São Paulo, para estimar a densidade larvária de Aedes aegypti pelo índice de Breteau, utilizando amostragem por conglomerados (quadras) em uma única etapa. Foram avaliadas 111 amostras obtidas em seis municípios da região de São José do Rio Preto, e pesquisadas, em média, 35 quadras e 14 edificações por quadra, num total de 510 edificações por amostra. RESULTADOS: As estimativas do índice de Breteau superiores a 3 apresentaram coeficientes de variação menores que 30% em 71% das amostras. O efeito do delineamento foi de 1,19 e de 1,79 para índices menores e maiores que 5, respectivamente. As estimativas foram obtidas em menos de três dias, envolvendo, em média, 5,5 homens na coleta de dados por dia. CONCLUSÕES: O plano de amostragem apresentou características de método simplificado: rapidez, economia e fácil operacionalização. Tais resultados se devem principalmente à utilização de conglomerados em uma única etapa, dispensando elaboração de listagem de endereços, sorteio e localização de edificações na segunda etapa. O efeito do delineamento indicou perda de precisão em níveis aceitáveis com a utilização de uma só etapa. A determinação do tamanho da amostra e a estimação dos erros amostrais das estimativas mereceram alterações simplificadoras.
Resumo:
Pretende-se, utilizando o Modelo da Elasticidade Linear em freeFEM++, determinar os esforços e deslocamentos de um edifício alto submetido apenas à acção do peso próprio da estrutura e, efectuar estudos comparativos dos resultados obtidos com o SAP2000. O trabalho inicia-se com a introdução da teoria da elasticidade linear, onde são feitas as deduções das Equações de Compatibilidade, Equilíbrio e as Leis Constitutivas, de modo a resolver numericamente o problema de Elasticidade Linear mencionado. O método de elementos finitos será implementado em freeFEM++ com auxílio do GMSH que é uma poderosa ferramenta com capacidade de gerar automaticamente malhas tridimensionais de elementos finitos e com relativa facilidade de pré e pós-processamento.