18 resultados para MÉTODOS DE TRABALHO
em Biblioteca de Teses e Dissertações da USP
Resumo:
A análise de dados de sobrevivência tem sido tradicionalmente baseada no modelo de regressão de Cox (COX, 1972). No entanto, a suposição de taxas de falha proporcionais assumida para esse modelo pode não ser atendida em diversas situações práticas. Essa restrição do modelo de Cox tem gerado interesse em abordagens alternativas, dentre elas os modelos dinâmicos que permitem efeito das covariáveis variando no tempo. Neste trabalho, foram revisados os principais modelos de sobrevivência dinâmicos com estrutura aditiva e multiplicativa nos contextos não paramétrico e semiparamétrico. Métodos gráficos baseados em resíduos foram apresentados com a finalidade de avaliar a qualidade de ajuste desses modelos. Uma versão tempo-dependente da área sob a curva ROC, denotada por AUC(t), foi proposta com a finalidade de avaliar e comparar a qualidade de predição entre modelos de sobrevivência com estruturas aditiva e multiplicativa. O desempenho da AUC(t) foi avaliado por meio de um estudo de simulação. Dados de três estudos descritos na literatura foram também analisados para ilustrar ou complementar os cenários que foram considerados no estudo de simulação. De modo geral, os resultados obtidos indicaram que os métodos gráficos apresentados para avaliar a adequação dos modelos em conjunto com a AUC(t) se constituem em um conjunto de ferramentas estatísticas úteis para o próposito de avaliar modelos de sobrevivência dinâmicos nos contextos não paramétrico e semiparamétrico. Além disso, a aplicação desse conjunto de ferramentas em alguns conjuntos de dados evidenciou que se, por um lado, os modelos dinâmicos são atrativos por permitirem covariáveis tempo-dependentes, por outro lado podem não ser apropriados para todos os conjuntos de dados, tendo em vista que estimação pode apresentar restrições para alguns deles.
Resumo:
Este trabalho teve como objetivo avaliar diversos métodos de detecção e recuperação de cistos de Giardia spp. e de oocistos de Cryptosporidium parvum em resíduos gerados no tratamento de águas de abastecimento com turbidez elevada tendo como padrão o Método 1623.1 da USEPA (2012 ). Para tanto, ensaios utilizando aparelho Jarteste (coagulação, floculação, decantação e filtração ) foram realizados utilizando o coagulante cloreto de polialumínio - PAC. Em todos os métodos avaliados foi utilizada a técnica de purificação por separação imunomagnética - IMS. A adaptação do método floculação em carbonato de cálcio FCCa elaborado por Vesey et al. (1993) e adaptado por Feng et al. (2011), repercutiu nos melhores resultados para a amostra de resíduo sedimentado, com recuperações de 68 ± 17 % para oocisto de C. parvum e de 42 ± 7 % para cisto de Giardia spp. Entretanto, as recuperações para a amostra de água de lavagem dos filtros - ALF foram inferiores à 1 %, não sendo possível determinar um método adequado. A presença dos patógenos indica que o reuso da ALF em ETA convencionais ou o descarte em mananciais sem um tratamento prévio, pode representar problemas de contaminação. A adaptação dos métodos de Boni de Oliveira (2012) e Keegan et al. (2008), também repercutiram em porcentagens de recuperação expressivas para a amostra de resíduo sedimentado, sendo de: 41 ± 35 % para oocisto de C. parvum e 11 ± 70 % para cisto de Giardia spp., e 38 ± 26 % para oocisto de C. parvum e 26 ± 13 % para cisto de Giardia spp., respectivamente. A análise estatística não resultou em diferença significativa entre estes dois métodos, entretanto, as elevadas recuperações indicam que estes métodos podem ser melhor avaliados em pesquisas futuras.
Resumo:
Técnicas analíticas empregadas para a quantificação do teor de lignina em plantas forrageiras, atualmente em uso, são questionáveis quanto às suas acurácias. O método lignina detergente ácido (LDA), que é um dos métodos mais utilizado em Ciência Animal e Agronomia, apresenta algumas falhas, particularmente devido à parcial solubilização da lignina durante a preparação da fibra em detergente ácido (FDA). A lignina Klason (LK), outro método muito usado, apresenta o inconveniente de mensurar a proteína da parede celular como sendo lignina. Em ambos os procedimentos recomenda-se também mensurar cinzas nos resíduos de lignina. A quantificação da concentração de lignina pelo método espectrofotométrico lignina brometo de acetila (LBA) vem ganhando interesse de pesquisadores no Brasil e no exterior. Nesta metodologia, a lignina da planta contida na preparação parede celular (PC) é solubilizada numa solução a 25% de brometo de acetila em ácido acético e a absorbância mensurada é com luz UV a 280 nm. O valor da absorbância é inserido numa equação de regressão e a concentração de lignina é obtida. Para que esta técnica analítica seja mais aceita pelos pesquisadores, ela deve ser, obviamente, convincente e atrativa. O presente trabalho analisou alguns parâmetros relacionados à LBA em 7 gramíneas e 6 leguminosas, em dois estádios de maturidade. Dentre as diferentes temperaturas de pré-secagem, os resultados indicaram que os procedimentos de 55°C com ventilação e liofilização podem ser utilizados com a mesma eficácia. As temperaturas de 55°C sem ventilação e 80°C sem ventilação não são recomendadas, pois aumentaram os valores de FDA e LDA, possivelmente devido ao surgimento de artefatos de técnica como os compostos de Maillard. No método LBA os valores menores das amostras de leguminosas chamaram a atenção e colocaram em questão se a lignina destas plantas seria menos solúvel no reagente brometo de acetila. Dentre algumas alterações na metodologia da técnica LBA, a utilização do moinho de bolas (para diminuir o tamanho particular) nas amostras de PC não mostrou efeito; a hipótese era melhorar a solubilização da lignina usando partículas menores. O uso de um ultrasonicador, que aumenta a vibração das moléculas e assim, facilitaria a solubilização da lignina no reagente brometo de acetila, melhorou a solubilização da lignina em cerca de 10%, tanto nas gramíneas como nas leguminosas. Foi acoplado um ensaio biológico como referência, a degradabilidade in vitro da matéria seca (DIVMS); e como a lignina está intimamente associada à estrutura fibrosa da parede celular, também foi feito um ensaio de degradabilidade in vitro da fibra em detergente neutro (DIVFDN). Os resultados confirmaram o efeito da maturidade, reduzindo a degradabilidade nas plantas mais maduras, e que o teor de lignina de leguminosas é realmente inferior ao de gramíneas. Os resultados de degradabilidade apresentaram coeficientes de correlação mais elevados com o método LBA, quando foi empregada a técnica do ultrasom; o método LK mostrou os menores coeficientes. Também testou-se, com sucesso, a utilização da FDN, como preparação fibrosa, ao invés de PC. A razão é simples: enquanto que a FDN é amplamente conhecida, a preparação PC não o é. Inquestionável que esta manobra facilitará substancialmente a divulgação desse método, tornando-a mais aceitável pela comunidade científica
Resumo:
Neste trabalho são feitas comparações entre os principais sinais horizontais de trânsito (Parada Obrigatória, Faixa de Pedestre e Lombada) padronizados pelo Código de Trânsito Brasileiro (CTB), com modelos alternativos que sofreram variações na forma e/ou cor, alguns deles já usados em algumas cidades brasileiras, com o objetivo de identificar se essas alterações melhoram ou não a percepção do sinal (impacto visual). Para isso são utilizados dois métodos da Psicofísica. Numa primeira etapa a análise é feita utilizando o Método de Comparação aos Pares, para um grupo de quatro estímulos para cada sinal estudado. Em seguida, aplicando o Método de Estimativa das Categorias, foi avaliado o impacto visual do sinal horizontal de Parada Obrigatória quanto à presença ou ausência de orla externa. Por fim, também pelo Método de Comparação aos Pares, foi avaliado o impacto visual causado pelo uso conjugado de sinais horizontais em cruzamentos não semaforizados. Foram estudadas as combinações entre os sinais de parada obrigatória, faixa de pedestres e faixa de retenção. Os resultados obtidos permitem inferir as seguintes conclusões: as alterações na forma e cor propostas para os sinais de parada obrigatória e faixa de pedestres causam maior impacto visual quando comparadas ao modelo padronizado pelo CTB mas, no caso das lombadas, a sinalização padrão mostrou-se ser mais perceptível; quanto a presença ou não da orla externa no sinal de parada obrigatória, esta demonstrou ser positiva; o uso conjugado dos sinais de parada obrigatória, faixa de pedestres e faixa de retenção é a combinação que mais desperta a atenção dos usuários.
Avaliação de métodos numéricos de análise linear de estabilidade para perfis de aço formados a frio.
Resumo:
Para o projeto de estruturas com perfis de aço formados a frio, é fundamental a compreensão dos fenômenos da instabilidade local e global, uma vez que estes apresentam alta esbeltez e baixa rigidez à torção. A determinação do carregamento crítico e a identificação do modo de instabilidade contribuem para o entendimento do comportamento dessas estruturas. Este trabalho avalia três metodologias para a análise linear de estabilidade de perfis de aço formados a frio isolados, com o objetivo de determinar os carregamentos críticos elásticos de bifurcação e os modos de instabilidade associados. Estritamente, analisa-se perfis de seção U enrijecido e Z enrijecido isolados, de diversos comprimentos e diferentes condições de vinculação e carregamento. Determinam-se os carregamentos críticos elásticos de bifurcação e os modos de instabilidade globais e locais por meio de: (i) análise com o Método das Faixas Finitas (MFF), através do uso do programa computacional CUFSM; (ii) análise com elementos finitos de barra baseados na Teoria Generalizada de Vigas (MEF-GBT), via uso do programa GBTUL; e (iii) análise com elementos finitos de casca (MEF-cascas) por meio do uso do programa ABAQUS. Algumas restrições e ressalvas com relação ao uso do MFF são apresentadas, assim como limitações da Teoria Generalizada de Viga e precauções a serem tomadas nos modelos de cascas. Analisa-se também a influência do grau de discretização da seção transversal. No entanto, não é feita avaliação em relação aos procedimentos normativos e tampouco análises não lineares, considerando as imperfeições geométricas iniciais, tensões residuais e o comportamento elastoplástico do material.
Resumo:
Uma compreensão aprofundada da dinâmica de competição portuária é particularmente importante dado o contexto atual do setor, que orienta à outorga de novos portos e terminais no Brasil, à luz da Nova Lei dos Portos, Lei Nº 12.815 de 2013. A avaliação dos reais impactos decorrentes do aumento de capacidade portuária em cada região será atividade fundamental para que, por um lado, o poder público oriente a alocação efetiva de recursos, sem prejudicar a operação dos complexos existentes; e para que a iniciativa privada, por sua vez, possa compreender os impactos dos possíveis novos empreendimentos sobre as suas operações e delinear estratégias comerciais compatíveis com o novo cenário competitivo. A partir de extensa revisão bibliográfica e da aplicação de técnicas a casos específicos, o presente trabalho detalha a dinâmica competitiva entre terminais de contêineres e avalia criticamente seis métodos utilizados para identificar a existência de competição: correlação de market share, comparação de taxas de ocupação, sobreposição de escalas marítimas, comparação de custos logísticos terrestres, representatividade da região de influência contestável e existência de poder de mercado sobre a região de influência. Dos seis métodos analisados, dois apresentam conclusões fulminantes para a questão, embora sua aplicação demande grande volume de informações; um é assertivo em condições normais de distribuição geográfica de cargas; dois apresentam condições necessárias, porém não suficientes para a identificação de competição; e um deve ser aplicado com ressalvas, uma vez que pode levar a conclusões equivocadas.
Resumo:
No presente trabalho foram avaliados processos alternativos de dessalinização visando a recuperação e reuso da água contida em salmouras concentradas, sendo o processo de cristalização assistida por destilação por membranas (MDC) investigado com profundidade. Foi desenvolvido um modelo diferencial para o processo de destilação por membranas por contato direto (DCMD), contemplando métodos termodinâmicos rigorosos para sistemas aquosos de eletrólitos fortes, bem como mecanismos de transferência de calor e massa e efeitos de polarização de temperatura e concentração característicos deste processo de separação. Com base em simulações realizadas a partir do modelo matemático assim desenvolvido, foram investigados os principais parâmetros que influenciam o projeto de um módulo de membranas para DCMD. O modelo foi posteriormente estendido com equações de balanço de massa e energia adicionais para incluir a operação de cristalização e desta forma representar o processo de MDC. De posse dos resultados das simulações e do modelo estendido, foi desenvolvido um método hierárquico para o projeto de processos de MDC, com o objetivo de conferir características de rastreabilidade e repetibilidade a esta atividade. Ainda a partir do modelo MDC foram discutidos aspectos importantes em MDC como a possibilidade de nucleação e crescimento de cristais sobre a superfície das membranas, bem como o comportamento do processo com sais com diferentes características de solubilidade e largura da zona metaestável. Verificou-se que para sais cuja solubilidade varia muito pouco com a temperatura e que possuem zona metaestável com pequena largura, caso do NaCl, a operação com resfriamento no cristalizador não é viável pois aumenta excessivamente o consumo energético do processo, sendo nesses casos preferível a operação \"isotérmica\" - sem resfriamento no cristalizador - e o convívio com a possibilidade de nucleação no interior do módulo. No extremo oposto, observou-se que para sais com grande variabilidade da solubilidade com a temperatura, um pequeno resfriamento no cristalizador é suficiente para garantir condições de subsaturação no interior do módulo, sem grande ônus energético para o processo. No caso de sais com pequena variabilidade da solubilidade com a temperatura, mas com largura da zona metaestável elevada, existe certo ônus energético para a operação com resfriamento do cristalizador, porém não tão acentuado como no caso de sais com zona metaestável estreita. Foi proposto um fluxograma alternativo para o processo de MDC, onde foi introduzido um circuito de pré-concentração da alimentação antes do circuito de cristalização, para o caso de alimentação com soluções muito diluídas. Este esquema proporcionou um aumento do fluxo permeado global do processo e consequentemente uma redução na área total de membrana requerida. Verificou-se que através do processo com préconcentração da alimentação de 5% até 10% em massa - no caso de dessalinização de uma solução de NaCl - foi possível reduzir-se a área total da membrana em 27,1% e o consumo energético específico do processo em 10,6%, quando comparado ao processo sem pré-concentração. Foram desenvolvidas ferramentas úteis para o projeto de processos de dessalinização por MDC em escala industrial.
Resumo:
Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.
Resumo:
A condutividade hidráulica (K) é um dos parâmetros controladores da magnitude da velocidade da água subterrânea, e consequentemente, é um dos mais importantes parâmetros que afetam o fluxo subterrâneo e o transporte de solutos, sendo de suma importância o conhecimento da distribuição de K. Esse trabalho visa estimar valores de condutividade hidráulica em duas áreas distintas, uma no Sistema Aquífero Guarani (SAG) e outra no Sistema Aquífero Bauru (SAB) por meio de três técnicas geoestatísticas: krigagem ordinária, cokrigagem e simulação condicional por bandas rotativas. Para aumentar a base de dados de valores de K, há um tratamento estatístico dos dados conhecidos. O método de interpolação matemática (krigagem ordinária) e o estocástico (simulação condicional por bandas rotativas) são aplicados para estimar os valores de K diretamente, enquanto que os métodos de krigagem ordinária combinada com regressão linear e cokrigagem permitem incorporar valores de capacidade específica (Q/s) como variável secundária. Adicionalmente, a cada método geoestatístico foi aplicada a técnica de desagrupamento por célula para comparar a sua capacidade de melhorar a performance dos métodos, o que pode ser avaliado por meio da validação cruzada. Os resultados dessas abordagens geoestatísticas indicam que os métodos de simulação condicional por bandas rotativas com a técnica de desagrupamento e de krigagem ordinária combinada com regressão linear sem a técnica de desagrupamento são os mais adequados para as áreas do SAG (rho=0.55) e do SAB (rho=0.44), respectivamente. O tratamento estatístico e a técnica de desagrupamento usados nesse trabalho revelaram-se úteis ferramentas auxiliares para os métodos geoestatísticos.
Resumo:
A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho.
Resumo:
A reciclagem profunda com espuma de asfalto tem sido uma alternativa de sucesso para a restauração de pavimentos degradados. Em relação às soluções tradicionais de reabilitação, como os recapeamentos, tem a vantagem de proporcionar a correção de defeitos em camadas inferiores, com a manutenção ou pequena elevação do greide da pista, além de ganhos ambientais, como um menor consumo de materiais virgens da natureza e redução do volume de material descartado. Entretanto, no Brasil não há método para dimensionamento estrutural para esta tecnologia, o que dificulta seu emprego. Para o desenvolvimento de um procedimento de dimensionamento que contemple este tipo de solução, foram estudados métodos presentes na bibliografia internacional: guia da AASHTO de 1993 e Caltrans, dos EUA, TRL386 e TRL611, da Inglaterra, as duas versões do guia sul-africano TG2 e os métodos oriundos do Austroads, tanto o procedimento interino de 2011 como adaptações de órgãos da Austrália e Nova Zelândia. Observou-se divergência de opiniões quanto ao comportamento do material reciclado com espuma de asfalto. Alguns órgãos e autores consideram o comportamento do mesmo mais próximo às misturas asfálticas, sendo o mecanismo de falha o trincamento, e outros o definem como semelhante a um material granular modificado com alta coesão e ruptura devido às deformações permanentes. Correlaciona-se tal associação ao teor de espuma usualmente utilizado nas obras rodoviárias. Outros aspectos que se destacam para este tipo de base são o ganho de resistência ao longo do tempo devido à cura, mesmo com início da operação da rodovia e a importância da infraestrutura remanescente no dimensionamento. Tais fatos foram corroborados pelos estudos de caso e resultados do trecho experimental construído na Rodovia Ayrton Senna - SP 070, monitorado por meio de ensaios deflectométricos com FWD durante um ano. Como resultado do trabalho, foi proposto um procedimento para o dimensionamento estrutural de pavimentos com camadas recicladas a frio com espuma de asfalto utilizando dados deflectométricos que atende o método do Manual de Pavimentação do Departamento Nacional de Infraestrutura de Transportes (DNIT) e incorpora diferentes aspectos na análise mecanicista. Outras conclusões são a viabilidade técnica a longo prazo da solução mencionada e a importância do controle tecnológico, com ênfase para o monitoramento deflectométrico nos primeiros meses de operação do pavimento para averiguar a evolução da cura do material.
Resumo:
Os procedimentos de dosagem Marshall e Superpave definem os teores de ligante de projeto baseados em parâmetros volumétricos. Nessa situação, sistemáticas de dosagem com tipos de compactação diferentes podem conduzir a teores de ligante de projeto distintos que definirão a vida útil dos revestimentos asfálticos. O objetivo principal desse trabalho é avaliar o comportamento mecânico de misturas asfálticas moldadas por diferentes métodos de compactação de laboratório e analisar a relação com os resultados de amostras obtidas a partir de misturas compactadas por rolagem pneumática na mesa compactadora francesa. A fase experimental consistiu na dosagem de misturas pelos métodos Marshall e Superpave (este último com dois tamanhos de moldes), além da compactação na Prensa de Cisalhamento Giratória (PCG) e da moldagem de placas na mesa compactadora. Avaliou-se o efeito do tipo de compactação, do tamanho do molde e do número de giros do Compactador Giratório Superpave (CGS) no teor de projeto, nos parâmetros volumétricos, no comportamento mecânico e no desempenho quanto à fadiga e à resistência ao afundamento em trilha de roda. Adicionalmente, foi avaliada a eficiência do método Bailey de composição granulométrica quanto à resistência à deformação permanente em função do tipo de agregado. Constatou-se que o método Bailey, por si só, não garante resistência à deformação permanente, sendo essa dependente do tipo de agregado incluindo seus parâmetros de forma. O principal produto da pesquisa, com efeitos práticos no projeto de misturas asfálticas, traduz-se na recomendação do método Superpave com molde de 100 mm (para TMN <= 12,5 mm) para volume de tráfego médio a alto em detrimento ao método Superpave com 150 mm, tendo em vista que o primeiro apresenta densificação mais semelhante às amostras preparadas na compactação por rolagem (similar ao que ocorre em pista) o que resulta em comportamento mecânico também mais próximo da realidade de campo. A utilização dos moldes de 150 mm de diâmetro no CGS pode ser viabilizada desde que se adote um número de giros menor do aquele proposto para projeto pelo Asphalt Institute (2001). Por fim, é fundamental que os ensaios e os cálculos para obtenção dos parâmetros volumétricos e escolha do teor de projeto sigam ao normatizado pela ASTM, pelo Asphalt Institute (2001) e pela ABNT.
Resumo:
As técnicas de cultivo sem solo representam novas alternativas para a produção de alimentos. Dentre estas, a hidroponia tem crescido muito ultimamente devido ao fato de, principalmente, apresentar altas produtividades, além de inúmeras vantagens em relação ao cultivo em solo. Entretanto, alguns pontos específicos no processo podem ser considerados questionáveis. Problemas relacionados ao manejo da solução nutritiva, em muitos casos, podem gerar tanto problemas produtivos como ambientais. Dessa forma o entendimento da marcha de nutrientes da solução nutritiva se torna imprescindível no sentido de minimizar tais problemas. Baseado nestas considerações, o presente trabalho teve como objetivos: a realização de revisões bibliográficas dos principais métodos de análise dos nutrientes presentes em soluções hidropônicas; a descrição e proposição de utilização dos métodos de espectrofotometria colorimétrica, de absorção e emissão atômica para análise da solução; a realização de revisões bibliográficas de trabalhos, realizados por diversos autores, relacionados às análises de soluções hidropônicas; a discussão dos problemas ambientais que esta atividade pode causar. Os principais métodos considerados foram: espectrofotometria colorimétrica, espectrofotometria de absorção e emissão atômica, cromatografia iônica e eletroforese capilar. Através da revisão dos estudos realizados com soluções hidropônicas, pôde-se observar uma predominância na utilização das técnicas relacionadas acima, para a análise dos nutrientes. O manejo da solução hidropônica pode levar à ocorrência de certos problemas. Os descartes sucessivos das soluções nas áreas adjacentes à produção acarretam em desperdício de água e fertilizantes, e causam a salinização dos solos. Neste processo o solo torna-se estéril e assim, inapropriados para o cultivo. Desta forma, a proposta final deste trabalho é propiciar uma base teórica inicial para que futuros estudos possam ser direcionados ao desenvolvimento de novas técnicas de análise em campo que produzam resultados confiáveis, e desta forma colaborarem com a minimização dos problemas relacionados à produção e ao meio ambiente.
Resumo:
Este trabalho estuda a interação entre os métodos anti-ilhamento aplicados em sistemas fotovoltaicos residenciais, operando simultaneamente em uma rede de distribuição de baixa tensão. Os sistemas fotovoltaicos em geral interagem entre si, com a rede de distribuição da concessionária e com outras fontes de geração distribuída. Uma consequência importante dessa interação é a ocorrência do ilhamento, que acontece quando as fontes de geração distribuída fornecem energia ao sistema elétrico de potência mesmo quando esta se encontra eletricamente isolada do sistema elétrico principal. A função anti-ilhamento é uma proteção extremamente importante, devendo estar presente em todos os sistemas de geração distribuída. Atualmente, são encontradas diversas técnicas na literatura. Muitas delas oferecem proteção adequada quando um inversor está conectado à linha de distribuição, mas podem falhar quando dois ou mais funcionam simultaneamente, conectados juntos ou próximos entre si. Dois destes métodos são analisados detalhadamente nesse estudo, avaliados em uma rede de distribuição residencial de baixa tensão. Os resultados obtidos mostram que a influência de um método sobre o outro é dependente da predominância de cada um deles dentro do sistema elétrico. Contudo, nas condições analisadas o ilhamento foi detectado dentro do limite máximo estabelecido pelas normas pertinentes.
Resumo:
No setor de energia elétrica, a área que se dedica ao estudo da inserção de novos parques geradores de energia no sistema é denominada planejamento da expansão da geração. Nesta área, as decisões de localização e instalação de novas usinas devem ser amplamente analisadas, a fim de se obter os diversos cenários proporcionados pelas alternativas geradas. Por uma série de fatores, o sistema de geração elétrico brasileiro, com predominância hidroelétrica, tende a ser gradualmente alterada pela inserção de usinas termoelétricas (UTEs). O problema de localização de UTEs envolve um grande número de variáveis através do qual deve ser possível analisar a importância e contribuição de cada uma. O objetivo geral deste trabalho é o desenvolvimento de um modelo de localização de usinas termoelétricas, aqui denominado SIGTE (Sistema de Informação Geográfica para Geração Termoelétrica), o qual integra as funcionalidades das ferramentas SIGs (Sistemas de Informação Geográfica) e dos métodos de decisão multicritério. A partir de uma visão global da área estudada, as componentes espaciais do problema (localização dos municípios, tipos de transporte, linhas de transmissão de diferentes tensões, áreas de preservação ambiental, etc.) podem ter uma representação mais próxima da realidade e critérios ambientais podem ser incluídos na análise. Além disso, o SIGTE permite a inserção de novas variáveis de decisão sem prejuízo da abordagem. O modelo desenvolvido foi aplicado para a realidade do Estado de São Paulo, mas deixando claro a viabilidade de uso do modelo para outro sistema ou região, com a devida atualização dos bancos de dados correspondentes. Este modelo é designado para auxiliar empreendedores que venham a ter interesse em construir uma usina ou órgãos governamentais que possuem a função de avaliar e deferir ou não a licença de instalação e operação de usinas.