197 resultados para Analise de erros (Matematica)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação testa e compara dois tipos de modelagem para previsão de uma mesma série temporal. Foi observada uma série temporal de distribuição de energia elétrica e, como estudo de caso, optou-se pela região metropolitana do Estado da Bahia. Foram testadas as combinações de três variáveis exógenas em cada modelo: a quantidade de clientes ligados na rede de distribuição de energia elétrica, a temperatura ambiente e a precipitação de chuvas. O modelo linear de previsão de séries temporais utilizado foi um SARIMAX. A modelagem de inteligência computacional utilizada para a previsão da série temporal foi um sistema de Inferência Fuzzy. Na busca de um melhor desempenho, foram feitos testes de quais variáveis exógenas melhor influenciam no comportamento da energia distribuída em cada modelo. Segundo a avaliação dos testes, o sistema Fuzzy de previsão foi o que obteve o menor erro. Porém dentre os menores erros, os resultados dos testes também indicaram diferentes variáveis exógenas para cada modelo de previsão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente tese busca analisar as políticas educacionais desenvolvidas durante o período de 1937 à 1945 e 1951 a 1954, período em o antigo estado do Rio de Janeiro esteve governado pelo Comandante Ernani do Amaral Peixoto, que foi interventor federal durante todo o período do Estado Novo e depois retornou ao governo do estado como governador eleito. Este longo período a frente do estado do Rio de Janeiro proporcionou o desenvolvimento de uma política educacional continuada.Para compreender a dimensão das suas ações em relação à política educacional torna-se imprescindível analisar a figura do Comandante Amaral Peixoto, a sua participação na política fluminense, a biografia e as redes de sociabilidade construídas por ele. Este estudo importa em refletir sobre suas escolhas e investimentos na área da educação, além de buscar entender que influências sofreu para implantar as medidas que politicamente fez valer no estado, principalmente no âmbito da educação. Investigo a política educacional desenvolvida no período citado frisando especialmente a política desenvolvida para a escola do trabalho, as escolas superiores, a educação especial, a educação de adultos, a educação rural (escolas típicas rurais e praianas) e a educação física, abordando ainda o desenvolvimento da cultura nas ações relacionadas às missões culturais fluminenses, ao cinema educativo e museus que estavam ligados a educação nesta época, evidencio também a questão pedagógica através da analise da verificação de rendimentos e dos programas escolares desenvolvidos pelo departamento de educação. O papel do professor fluminense no desenvolvimento das políticas educacionais foi discutido a partir da formação de professores e do papel do estado do Rio como referência modernizadora na educação, traçando o perfil do professor fluminense nas décadas de 1930, 1940 e 1950, examinando a formação inicial destes professores, a formação continuada que era oferecida a eles e as correntes pedagógicas que influenciaram este professor na sua formação

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento da população mundial, aumento da industrialização e consumo de bens e serviços, tem aumentado significativamente a geração de resíduos que vem causando impactos negativos na saúde humana e ambiental. Neste contexto, se destaca a geração de produtos perigosos, tais como, os resíduos de serviços de saúde- RSS. Por apresentarem riscos à saúde da população e do meio ambiente, recomendações, normas e legislações surgiram para orientar a melhor maneira o manejo e disposição final destes resíduos. No Brasil, as resoluções NBR 306/04 e CONAMA 358/05 dão diretrizes para a elaboração de um Plano de Gerenciamento de Resíduos de Serviços de Saúde-PGRSS. Os laboratórios de pesquisa e ensino, como geradores de RSS, precisam se adequar à legislação, porém existem poucos estudos e a legislação não aborda especificamente os resíduos destes laboratórios. Os laboratórios e unidades da UERJ, geradores de RSS, não possuem PGRSS. Na UERJ, somente dois estudos levantaram os resíduos gerados em laboratórios, entretanto os dados levantados para o Instituto de Biologia são incompletos. Este estudo buscou avaliar o manejo dos resíduos biológico, químico, radioativo e perfurocortante nos laboratórios do Instituto de Biologia. Os dados foram coletados pelas informações dadas pelos professores, funcionários ou alunos dos laboratórios e por observação direta. Os dados de manejo foram analisados de acordo com a RDC 306/04 Anvisa, da Resolução CONAMA 358/05 e das fichas de segurança dos produtos químicos. Foram estudados 83% dos laboratórios do Instituto de Biologia. Destes, 43% geram resíduos químicos. Dos laboratórios caracterizados, 19 laboratórios geram somente resíduo químico. No pavilhão Américo Piquet estão localizados 63% dos laboratórios geradores de resíduos biológicos, químicos, perfurocortantes ou radioativos. Do total de resíduos gerados nos laboratórios, cerca de 80% foi de resíduo biológico, 15% de resíduo químico e 5% de resíduo perfurocortante. O manejo dos resíduos nos laboratórios é realizado de maneira confusa, geralmente os erros estão na segregação, identificação e acondicionamento. De maneira geral, as informações sobre o manejo utilizado para os resíduos são incompletas, desconhecidas ou imprecisas. As ações incorretas do manejo de resíduos são características para cada tipo de resíduo; no resíduo biológico, freqüentemente, encontraram-se resíduos comuns. O resíduo químico é geralmente descartado sem tratamento prévio na rede de esgoto. O resíduo radioativo não possui identificação e acompanhamento do decaimento, para posterior descarte. No resíduo perfurocortante encontrou-se, freqüentemente, resíduo biológico e químico misturados. Para o sucesso de um futuro Plano de Gerenciamento de Resíduos, a capacitação dos profissionais é muito importante. A Instituição deve investir na consolidação desse trabalho, considerando que ela não pode se furtar de adotar uma postura pró-ativa com relação aos problemas ambientais, sejam eles dirigentes da instituição, ou profissionais que ali atuam. Espera-se que essa pesquisa possa auxiliar neste sentido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo objetiva conhecer os conteúdos veiculados à velhice no jornal Folha de S. Paulo. Trata-se de uma pesquisa exploratória, descritiva e documental, com abordagem metodológica quali-quantitativa pautada na Teoria das Representações Sociais. Foram analisados dois períodos: 1) de 01 de janeiro de 2001 até 31 de dezembro de 2003 e; 2) de 01 de janeiro de 2004 até 31 de dezembro de 2006. O jornal foi escolhido devido a: Prestígio, Credibilidade, Circulação e Acervo digitalizado. Foram consultados seis termos: Envelhecimento, Velhice, Terceira Idade, Idoso, Idosa e, Estatuto do Idoso. Foi desenvolvido um protocolo de pesquisa para análise da mídia impressa. Adotaram-se como critérios de exclusão: (1) Matérias repetidas entre termos, (2) Matérias com erro de leitura, (3) Matérias publicadas em extensões Regionais da Folha; e, (4) Relação da matéria com o objeto da pesquisa (classificadas como 0, 1 e 2). As matérias 2, consideradas como de estreita relação com a pesquisa conformaram a amostra para análise. Os dados foram submetidos às seguintes análises: analise estatística descritiva e análise de conteúdo temática. Contou-se com auxílio dos programas Excel e SPSS. Na apuração dos dados, constatou-se que, das 4108 matérias disponíveis no acervo do jornal, 346 preenchiam os critérios de inclusão. A análise revela que a cobertura da velhice na mídia não foi regular nos seis anos analisados, sendo que, houve um aumento de 5,78% de matérias publicadas no segundo período. O ano de maior publicação de matérias foi 2003, aspecto que coincide com a promulgação do Estatuto do Idoso. A difusão (67,34%) foi gênero moscoviciano mais utilizado pelo Jornal para tratar o tema da velhice. A análise das Seções indica que o tratamento da velhice por parte do Jornal está vinculado a diversas temáticas relacionadas com a cotidianidade dos leitores principalmente com assuntos relacionados à saúde e a aspectos econômicos. O estudo também revelou que a localização e o tamanho da matéria sugerem que trata-se de matérias de menor importância, não consideradas como de publicação imediata e que atraem menos a atenção do leitor. A análise do conjunto de antetítulos, títulos e subtítulos revelou que os termos utilizados para referir-se ao objeto de estudo estão vinculados a elementos derivados do conhecimento científico e da normativa sobre o assunto. A análise do material textual resultou em 4011 URs associadas a 57 unidades de significação revelando homogeneidade quantitativa nos dois períodos estudados. A agregação dessas unidades resultou em 10 categorias representacionais: Saúde e Doença; Sentidos de Envelhecer; Realidade Demográfica; Trabalho, Aposentadoria e Renda; Maus-tratos e discriminação; Legislação e proteção do idoso; Serviços e Mercado; Recreação e Voluntariado; Família e velhice e; Cognição na velhice. Constata-se que a velhice é representada no Jornal através de duas imagens que se contrapõem: A primeira imagem da velhice, denominada neste trabalhado como velha velhice está relacionada com os valores negativos tradicionalmente associados a essa fase relacionados a doença, a dependência, a vulnerabilidade física e cognitiva e as dificuldades econômicas. A segunda imagem designada de nova velhice está relacionada com valores considerados positivos relacionados com a busca do envelhecimento saudável. Constatou-se que essas representações são concomitantes nos dois períodos analisados. A mídia, sem dúvida, constitui um objeto transformador da realidade na medida em que é através dela que as representações sociais circulam em grande escala

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de software livre de Jacobiana para a resolução de problemas formulados por equações diferenciais parciais não-lineares é de interesse crescente para simular processos práticos de engenharia. Este trabalho utiliza o chamado algoritmo espectral livre de derivada para equações não-lineares na simulação de fluxos em meios porosos. O modelo aqui considerado é aquele empregado para descrever o deslocamento do fluido compressível miscível em meios porosos com fontes e sumidouros, onde a densidade da mistura de fluidos varia exponencialmente com a pressão. O algoritmo espectral utilizado é um método moderno para a solução de sistemas não-lineares de grande porte, o que não resolve sistemas lineares, nem usa qualquer informação explícita associados com a matriz Jacobiana, sendo uma abordagem livre de Jacobiana. Problemas bidimensionais são apresentados, juntamente com os resultados numéricos comparando o algoritmo espectral com um método de Newton inexato livre de Jacobiana. Os resultados deste trabalho mostram que este algoritmo espectral moderno é um método confiável e eficiente para a simulação de escoamentos compressíveis em meios porosos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Segundo O`Kane et al, em 2008, foi demonstrado que 88,9% dos erros laboratoriais são realizados na fase pré-analítica. No laboratório de análises clínicas, o sistema de controle da qualidade pode ser definido como toda a ação sistemática necessária para dar confiança e segurança em todos os exames e prevenir a ocorrência de erros. O tempo de armazenamento pode variar de dias a meses ou mesmo anos, influenciando na definição da temperatura de estocagem. O armazenamento de longo prazo pode resultar na criopreservação inadequada para determinados analitos e pode desnaturar as lipoproteínas. Objetivos: Este trabalho teve como objetivo avaliar a fase pré-analítica, controle da qualidade interno e também avaliar o efeito do congelamento (- 80C) quanto ao tempo de armazenamento do soro e plasma de sangue colhido com ácido etilenodiamino tetra-acético (EDTA). As dosagens foram realizadas no Laboratório de Lípides LabLip, e estocadas em - 80 C por três anos, as mesmas foram redosadas no Serviço de Patologia Clínica da Policlínica Piquet Carneiro da UERJ com metodologias iguais e realizada a comparabilidade dos resultados. Foram analisados o perfil lipídico (CT, HDLc e TG) e PCR-US de 103 amostras, 73 no soro e 30 no plasma em dois laboratórios altamente qualificados. Discussão: Após redosagem foram encontrados nas dosagens de HDLc e CT resultados diminuídos respectivamente (correlação coeficiente no soro 0,48 e 0,62) teste t pareado no soro (CT p 0,0012 e HDLc p 0,0001). Conclusões: Os dados obtidos nas avaliações dos resultados de diferentes laboratórios e tempo de estocagem revelaram que as amostras quando armazenadas por um longo período após redosagem no soro, apresentaram diferenças em certos analitos, tais como CT e HDLc, no qual obteve-se resultados significativamente diminuídos, diferentemente no plasma, que após três anos de estocagem a -80C foram redosados e aplicados no teste t pareado, os analitos CT e PCR-US mantiveram a estabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, tem sido observado o aumento da oferta de bebidas com elevado conteúdo calórico e com grandes quantidades de açúcar de rápida absorção. Essas bebidas adoçadas, cujo consumo tem aumentado no Brasil assim como em outras partes do mundo, são consideradas fatores de risco para obesidade e diabetes. O consumo de bebidas adoçadas pode levar ao balanço energético positivo e consequentemente ao ganho de peso. Essa associação pode ser explicada pelo mecanismo regulatório de compensação de calorias líquidas. Compensação calórica ocorre quando há redução no consumo de calorias provenientes de alimentos sólidos para compensar as calorias líquidas adicionadas à refeição ou dieta. No entanto, não há consenso em relação a evidências da compensação calórica, dificultando a elaboração de recomendações sobre essas bebidas em saúde pública. Razões para a falta de consenso incluem a diversidade de desenhos de estudos, experimentos realizados em ambientes controlados e não reais em relação ao consumo de alimentos e bebidas, e estudos com amostras pequenas ou de conveniência. Esta dissertação estudou a associação entre bebidas adoçadas e consumo calórico, verificando se calorias de bebidas adoçadas são compensadas em refeições realizadas em um ambiente pragmático. Os dados de consumo calórico de 34.003 indivíduos, com idade igual ou superior a dez anos, foram obtidos pelo Inquérito Nacional de Alimentação 2008-2009, em todo território nacional. Os participantes completaram dois registros alimentares, em dias não consecutivos da mesma semana. Foram selecionadas as refeições dos períodos café da manhã, almoço e jantar de cada indivíduo em cada um dos dias. Para cada refeição, foi calculado o valor calórico de alimentos e de bebidas adoçadas consumidos. Para testar a compensação calórica, um modelo de regressão linear multinível com efeitos mistos foi ajustado para analisar cada período. A variável reposta utilizada foi consumo calórico proveniente de alimentos e a variável explicativa foi consumo calórico de bebida adoçada na refeição. Os efeitos intra-indivíduo da bebida adoçada no consumo calórico foram estimados e interpretados. Esses efeitos são considerados não-enviesados pois são controlados pelas características constantes dos indivíduos, tendo assim o indivíduo atuando como seu próprio controle na análise. Covariadas incluídas no modelo foram variáveis da refeição: local, dia da semana, horário, consumo calórico na refeição anterior e intervalo de tempo desde a última refeição; e do indivíduo: sexo, faixa etária, categoria de Índice de Massa Corpórea e quartos de renda per capita. Efeitos aleatórios dos indivíduos e dos domicílios foram incluídos no modelo para melhor estimar a estrutura de erros de dados correlacionados. A compensação calórica foi de 42% para o café da manhã, não houve compensação no almoço e para o jantar, compensação variou de 0 a 22%, tendo interação com quartos de renda per capita. A conclusão desta dissertação é que as bebidas adoçadas não são completamente compensadas em refeições realizadas em ambiente pragmático. Assim, a redução do consumo de bebidas adoçadas em refeições pode ajudar a diminuir o consumo calórico excessivo e levar a um melhor controle do peso em indivíduos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aborda, de maneira bem sucinta e objetiva, a história da evolução dos números desde o primeiro risco em um osso, até chegar na forma atual como os conhecemos. Ao longo de aproximadamente 30.000 anos de existência, os sistemas de numeração, suas bases e representações sofreram inúmeras modificações, adequando-se ao contexto histórico vigente. Podemos citar a mentalidade científica da época, a necessidade da conquista de territórios, religiões e crenças e necessidades básicas da vida cotidiana. Deste modo, mostramos uma corrente histórica que tenta explicar como e porque a ideia de número se modifica com o tempo, sempre tendo em vista os fatores que motivaram tais mudanças e quais benefícios (ou malefícios) trouxeram consigo. Com um capítulo dedicado a cada uma das mais importantes civilizações que contribuíram para o crescimento da matemática e, sempre que possível, em ordem cronológica de acontecimentos, o leitor consegue ter uma boa ideia de como uma civilização influencia a outra e como um povo posterior pôde apoiar-se nos conhecimentos adquiridos dos antepassados para produzir seus próprios algorítimos e teoremas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A co-pirólise é uma rota promissora, uma vez que minimiza o impacto ambiental causado pela disposição do plástico de maneira inadequada, evita seu acúmulo em lixões e permite um melhor aproveitamento de um recurso natural não-renovável, o petróleo, matéria prima importante para a geração de energia e obtenção de produtos químicos. O presente trabalho teve como objetivo a definição das condições experimentais mais propícias à obtenção de líquidos pirolíticos com alta fração de óleo diesel, resultantes da co-pirólise de polietileno de alta densidade (PEAD) pós-consumo com gasóleo pesado tilizando-se catalisador de FCC (Fluid Catalytic Cracking). Como instrumento de otimização das condições experimentais, optou-se pela Metodologia Planejamento Fatorial. Foi também estudado o efeito das condições experimentais, como: a temperatura de reação, a relação gasóleo/polietileno e a quantidade de catalisador no meio reacional. As amostras de polietileno, gasóleo e catalisador foram submetidas à co-pirólise em sistema de leito fixo, sob fluxo constante de nitrogênio, variando-se a temperatura entre 450 C a 550 C, a quantidade de PEAD no meio reacional foi de 0,2 a 0,6 g, e a quantidade de catalisador foi de zero a 0,06 g, mantendo-se fixa a quantidade de gasóleo em 2 g. Foram efetuadas as caracterizações física e química do gasóleo, polietileno pós-uso e do catalisador. Como resultado, obteve-se a produção de 87% de fração de óleo diesel em duas condições diferentes: (a) 550 0C de temperatura sem catalisador; (b) 500 0C de temperatura e 25% de catalisador FCC. Em ambos os casos, a quantidade de gasóleo pesado e PEAD foram constantes (2 g Gasóleo; 0,2 g PEAD), assim com o tempo de reação de 15 minutos. A fração de óleo diesel obtida neste estudo alcançou o poder calorífico de 44,0 MJ/Kg que é similar ao óleo diesel comercial. É importante ressaltar que em ambos os casos nenhum resíduo foi produzido, sendo uma rota ambientalmente importante para reciclagem de embalagens plásticas contaminadas com óleo lubrificante originárias de postos de serviço, visando à recuperação de ambos conteúdo energético e orgânico dos resíduos de embalagens plásticas pós-uso

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Azeotropia é um fenômeno termodinâmico onde um líquido em ebulição produz um vapor com composição idêntica. Esta situação é um desafio para a Engenharia de Separação, já que os processos de destilação exploram as diferenças entre as volatilidades relativas e, portanto, um azeótropo pode ser uma barreira para a separação. Em misturas binárias, o cálculo da azeotropia é caracterizado por um sistema não-linear do tipo 2 × 2. Um interessante e raro caso é o denominado azeotropia dupla, que pode ser verificado quando este sistema não-linear tem duas soluções, correspondendo a dois azeótropos distintos. Diferentes métodos tem sido utilizados na resolução de problemas desta natureza, como métodos estocásticos de otimização e as técnicas intervalares (do tipo Newton intervalar/bisseção generalizada). Nesta tese apresentamos a formulação do problema de azeotropia dupla e uma nova e robusta abordagem para a resolução dos sistemas não-lineares do tipo 2 × 2, que é a inversão de funções do plano no plano (MALTA; SALDANHA; TOMEI, 1996). No método proposto, as soluções são obtidas através de um conjunto de ações: obtenção de curvas críticas e de pré-imagens de pontos arbritários, inversão da função e por fim, as soluções esperadas para o problema de azeotropia. Esta metodologia foi desenvolvida para resolver sistemas não-lineares do tipo 2 × 2, tendo como objetivo dar uma visão global da função que modela o fenômeno em questão, além, é claro, de gerar as soluções esperadas. Serão apresentados resultados numéricos para o cálculo dos azeótropos no sistema benzeno + hexafluorobenzeno a baixas pressões por este método de inversão. Como ferramentas auxiliares, serão também apresentados aspectos numéricos usando aproximações clássicas, tais como métodos de Newton com técnicas de globalização e o algorítmo de otimização não-linear C-GRASP, para efeito de comparação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Projetos de construção são caracterizados pela escala, complexidade e seus riscos. Não é incomum encontrar planejamento e definição de escopo incompletos o que leva a aumento de custos e prazos. O objetivo desse trabalho é descrever um método de avaliação de riscos de forma a aumentar a previsibilidade da estimativa de custos do empreendimento. Para isso foram utilizados conceitos de gerenciamento de projetos, de simulação e de analise de riscos descritos na literatura para a constituição de um método de análise de riscos em estimativa de custos. A aplicação do método proposto em comparação com o método tradicional traz vantagens no que diz respeito à abrangência da análise. Enquanto pelo método tradicional a análise do empreendimento se faz por meio de suas tarefas, o método proposto analisa de forma distinta o planejamento do empreendimento nas suas três dimensões fundamentais: escopo, prazo e custo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Projetos de construção são caracterizados pela escala, complexidade e seus riscos. Não é incomum encontrar planejamento e definição de escopo incompletos o que leva a aumento de custos e prazos. O objetivo desse trabalho é descrever um método de avaliação de riscos de forma a aumentar a previsibilidade da estimativa de custos do empreendimento. Para isso foram utilizados conceitos de gerenciamento de projetos, de simulação e de analise de riscos descritos na literatura para a constituição de um método de análise de riscos em estimativa de custos. A aplicação do método proposto em comparação com o método tradicional traz vantagens no que diz respeito à abrangência da análise. Enquanto pelo método tradicional a análise do empreendimento se faz por meio de suas tarefas, o método proposto analisa de forma distinta o planejamento do empreendimento nas suas três dimensões fundamentais: escopo, prazo e custo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi estabelecer um modelo empregando-se ferramentas de regressão multivariada para a previsão do teor em ésteres metílicos e, simultaneamente, de propriedades físico-químicas de misturas de óleo de soja e biodiesel de soja. O modelo foi proposto a partir da correlação das propriedades de interesse com os espectros de reflectância total atenuada no infravermelho médio das misturas. Para a determinação dos teores de ésteres metílicos foi utilizada a cromatografia líquida de alta eficiência (HPLC), podendo esta ser uma técnica alternativa aos método de referência que utilizam a cromatografia em fase gasosa (EN 14103 e EN 14105). As propriedades físico-químicas selecionadas foram índice de refração, massa específica e viscosidade. Para o estudo, foram preparadas 11 misturas com diferentes proporções de biodiesel de soja e de óleo de soja (0-100 % em massa de biodiesel de soja), em quintuplicata, totalizando 55 amostras. A região do infravermelho estudada foi a faixa de 3801 a 650 cm-1. Os espectros foram submetidos aos pré-tratamentos de correção de sinal multiplicativo (MSC) e, em seguida, à centralização na média (MC). As propriedades de interesse foram submetidas ao autoescalamento. Em seguida foi aplicada análise de componentes principais (PCA) com a finalidade de reduzir a dimensionalidade dos dados e detectar a presença de valores anômalos. Quando estes foram detectados, a amostra era descartada. Os dados originais foram submetidos ao algoritmo de Kennard-Stone dividindo-os em um conjunto de calibração, para a construção do modelo, e um conjunto de validação, para verificar a sua confiabilidade. Os resultados mostraram que o modelo proposto por PLS2 (Mínimos Quadrados Parciais) foi capaz de se ajustar bem os dados de índice de refração e de massa específica, podendo ser observado um comportamento aleatório dos erros, indicando a presença de homocedasticidade nos valores residuais, em outras palavras, o modelo construído apresentou uma capacidade de previsão para as propriedades de massa específica e índice de refração com 95% de confiança. A exatidão do modelo foi também avaliada através da estimativa dos parâmetros de regressão que são a inclinação e o intercepto pela Região Conjunta da Elipse de Confiança (EJCR). Os resultados confirmaram que o modelo MIR-PLS desenvolvido foi capaz de prever, simultaneamente, as propriedades índice de refração e massa específica. Para os teores de éteres metílicos determinados por HPLC, foi também desenvolvido um modelo MIR-PLS para correlacionar estes valores com os espectros de MIR, porém a qualidade do ajuste não foi tão boa. Apesar disso, foi possível mostrar que os dados podem ser modelados e correlacionados com os espectros de infravermelho utilizando calibração multivariada