96 resultados para forecast deviation
Resumo:
Background: A growing body of research suggests that vitamin D might play an important role in overall health. No data exist on vitamin D intake for the Azorean adolescent population. The purpose of this study was to assess vitamin D intake and investigate a possible association between vitamin D intake and cardiometabolic risk factors in Azorean adolescents. Methods: A cross-sectional school-based study was conducted on 496 adolescents (288 girls) aged 15–18 years from the Azorean Islands, Portugal. Anthropometric measurements (waist circumference and height), blood pressure (systolic), and plasma biomarkers [fasting glucose, insulin, total cholesterol (TC), high-density lipoprotein cholesterol (HDL-C), and triglycerides (TGs)] were measured to assess metabolic risk. Homeostasis model assessment (HOMA), TC-to-HDL-C ratio, and waist-to-height ratio were calculated. For each of these variables, a Z-score was computed by age and sex. A metabolic risk score was constructed by summing the Zscores of all individual risk factors. High risk was considered when the individual had ‡ 1 standard deviation(SD) of this score. Vitamin D intake was assessed with a semiquantitative food frequency questionnaire. Participants were classified into quartiles of vitamin D intake. Logistic regression was used to determine odds ratios for high cardiometabolic risk scores after adjusting for total energy intake, pubertal stage, fat mass percentage, and cardiorespiratory fitness. Results: Mean (SD) vitamin D intake was 5.8 (6.5) mg/day, and 9.1% of Azorean adolescents achieved the estimated average requirement of vitamin D (10 mg/day or 400 IU). Logistic regression showed that the odds ratio for a high cardiometabolic risk score was 3.35 [95% confidence interval (CI) 1.28–8.75] for adolescents in the lowest vitamin D intake quartile in comparison with those in the highest vitamin D intake quartile, even after adjustment for confounders. Conclusion: A lower level of vitamin D intake was associated with worse metabolic profile among Azorean adolescents.
Resumo:
Atualmente a energia é considerada um vetor estratégico nas diversas organizações. Assim sendo, a gestão e a utilização racional da energia são consideradas instrumentos fundamentais para a redução dos consumos associados aos processos de produção do sector industrial. As ações de gestão energética não deverão ficar pela fase do projeto das instalações e dos meios de produção, mas sim acompanhar a atividade da Empresa. A gestão da energia deve ser sustentada com base na realização regular de diagnósticos energéticos às instalações consumidoras e concretizada através de planos de atuação e de investimento que apresentem como principal objetivo a promoção da eficiência energética, conduzindo assim à redução dos respetivos consumos e, consequentemente, à redução da fatura energética. Neste contexto, a utilização de ferramentas de apoio à gestão de energia promovem um consumo energético mais racional, ou seja, promovem a eficiência energética e é neste sentido que se insere este trabalho. O presente trabalho foi desenvolvido na Empresa RAR Açúcar e apresentou como principais objetivos: a reformulação do Sistema de Gestão de Consumos de Energia da Empresa, a criação de um modelo quantitativo que permitisse ao Gestor de Energia prever os consumos anuais de água, fuelóleo e eletricidade da Refinaria e a elaboração de um plano de consumos para o ano de 2014 a partir do modelo criado. A reformulação do respetivo Sistema de Gestão de Consumos resultou de um conjunto de etapas. Numa primeira fase foi necessário efetuar uma caraterização e uma análise do atual Sistema de Gestão de Consumos da Empresa, sistema composto por um conjunto de sete ficheiros de cálculo do programa Microsoft Excel©. Terminada a análise, selecionada a informação pertinente e propostas todas as melhorias a introduzir nos ficheiros, procedeu-se à reformulação do respetivo SGE, reduzindo-se o conjunto de ficheiros de cálculo para apenas dois ficheiros, um onde serão efetuados e visualizados todos os registos e outro onde serão realizados os cálculos necessários para o controlo energético da Empresa. O novo Sistema de Gestão de Consumos de Energia será implementado no início do ano de 2015. Relativamente às alterações propostas para as folhas de registos manuais, estas já foram implementadas pela Empresa. Esta aplicação prática mostrou-se bastante eficiente uma vez que permitiu grandes melhorias processuais nomeadamente, menores tempos de preenchimento das mesmas e um encurtamento das rotas efetuadas diariamente pelos operadores. Através do levantamento efetuado aos diversos contadores foi possível identificar todas as áreas onde será necessário a sua instalação e a substituição de todos os contadores avariados, permitindo deste modo uma contabilização mais precisa de todos os consumos da Empresa. Com esta reestruturação o Sistema de Gestão de Consumos tornou-se mais dinâmico, mais claro e, principalmente, mais eficiente. Para a criação do modelo de previsão de consumos da Empresa foi necessário efetuar-se um levantamento dos consumos históricos de água, eletricidade, fuelóleo e produção de açúcar de dois anos. Após este levantamento determinaram-se os consumos específicos de água, fuelóleo e eletricidade diários (para cada semana dos dois anos) e procedeu-se à caracterização destes consumos por tipo de dia. Efetuada a caracterização definiu-se para cada tipo de dia um consumo específico médio com base nos dois anos. O modelo de previsão de consumos foi criado com base nos consumos específicos médios dos dois anos correspondentes a cada tipo de dia. Procedeu-se por fim à verificação do modelo, comparando-se os consumos obtidos através do modelo (consumos previstos) com os consumos reais de cada ano. Para o ano de 2012 o modelo apresenta um desvio de 6% na previsão da água, 12% na previsão da eletricidade e de 6% na previsão do fuelóleo. Em relação ao ano de 2013, o modelo apresenta um erro de 1% para a previsão dos consumos de água, 8% para o fuelóleo e de 1% para a eletricidade. Este modelo permitirá efetuar contratos de aquisição de energia elétrica com maior rigor o que conduzirá a vantagens na sua negociação e consequentemente numa redução dos custos resultantes da aquisição da mesma. Permitirá também uma adequação dos fluxos de tesouraria à necessidade reais da Empresa, resultante de um modelo de previsão mais rigoroso e que se traduz numa mais-valia financeira para a mesma. Foi também proposto a elaboração de um plano de consumos para o ano de 2014 a partir do modelo criado em função da produção prevista para esse mesmo ano. O modelo apresenta um desvio de 24% na previsão da água, 0% na previsão da eletricidade e de 28% na previsão do fuelóleo.
Resumo:
A presente dissertação tem como principal propósito avaliar o desempenho energético e a qualidade do ar interior do edifício principal do Parque Biológico de Vila Nova de Gaia (PBG). Para esse efeito, este estudo relaciona os termos definidos na legislação nacional em vigor até à presente data, e referentes a esta área de atuação, em particular, os presentes no SCE, RSECE, RCCTE e RSECE-QAI. Para avaliar o desempenho energético, procedeu-se numa primeira fase ao processo de auditoria no local e posteriormente à realização de uma simulação dinâmica detalhada, cuja modelação do edifício foi feita com recurso ao software DesignBuilder. Após a validação do modelo simulado, por verificação do desvio entre os consumos energéticos registados nas faturas e os calculados na simulação, igual a 5,97%, foi possível efetuar a desagregação dos consumos em percentagem pelos diferentes tipos de utilizações. Foi também possível determinar os IEE real e nominal, correspondendo a 29,9 e 41.3 kgep/m2.ano, respetivamente, constatando-se através dos mesmos que o edifício ficaria dispensado de implementar um plano de racionalização energética (PRE) e que a classe energética a atribuir é a C. Contudo, foram apresentadas algumas medidas de poupança de energia, de modo a melhorar a eficiência energética do edifício e reduzir a fatura associada. Destas destacam-se duas propostas, a primeira propõe a alteração do sistema de iluminação interior e exterior do edifício, conduzindo a uma redução no consumo de eletricidade de 47,5 MWh/ano, com um período de retorno de investimento de 3,5 anos. A segunda está relacionada com a alteração do sistema de produção de água quente para o aquecimento central, através do incremento de uma caldeira a lenha ao sistema atual, que prevê uma redução de 50 MWh no consumo de gás natural e um período de retorno de investimento de cerca de 4 anos. Na análise realizada à qualidade do ar interior (QAI), os parâmetros quantificados foram os exigidos legalmente, excetuando os microbiológicos. Deste modo, para os parâmetros físicos, temperatura e humidade relativa, obtiveram-se os resultados médios de 19,7ºC e 66,9%, respetivamente, ligeiramente abaixo do previsto na legislação (20,0ºC no período em que foi feita a medição, inverno). No que diz respeito aos parâmetros químicos, os valores médios registados para as concentrações de dióxido de carbono (CO2), monóxido de carbono (CO), ozono (O3), formaldeído (HCHO), partículas em suspensão (PM10) e radão, foram iguais a 580 ppm, 0,2 ppm, 0,06 ppm, 0,01 ppm, 0,07 mg/m3 e 196 Bq/m3, respetivamente, verificando-se que estão abaixo dos valores máximos de referência presentes no regulamento (984 ppm, 10,7 ppm, 0,10 ppm, 0,08 ppm, 0,15 mg/m3 e 400 Bq/m3). No entanto, o parâmetro relativo aos compostos orgânicos voláteis (COV) teve um valor médio igual a 0,84 ppm, bastante acima do valor máximo de referência (0,26 ppm). Neste caso, terá que ser realizada uma nova série de medições utilizando meios cromatográficos, para avaliar qual(ais) são o(s) agente(s) poluidor(es), de modo a eliminar ou atenuar as fontes de emissão.
Resumo:
A Salmonella é um microrganismo responsável por grande parte das doenças alimentares, podendo por em causa a saúde pública da área contaminada. Uma deteção rápida, eficiente e altamente sensível e extremamente importante, sendo um campo em franco desenvolvimento e alvo de variados e múltiplos estudos na comunidade cientifica atual. Foi desenvolvido um método potenciométrico para a deteção de Salmonellas, com elétrodos seletivos de iões, construídos em laboratório com pontas de micropipetas, fios de prata e sensores com composição otimizada. O elétrodo indicador escolhido foi um ESI seletivo a cadmio, para redução da probabilidade de interferências no método, devido a pouca abundancia do cadmio em amostras alimentares. Elétrodos seletivos a sódio, elétrodos de Ag/AgCl de simples e de dupla juncão foram também construídos e caracterizados para serem aplicados como elétrodos de referência. Adicionalmente otimizaram-se as condições operacionais para a analise potenciométrica, nomeadamente o elétrodo de referencia utilizado, condicionamento dos elétrodos, efeito do pH e volume da solução amostra. A capacidade de realizar leituras em volumes muito pequenos com limites de deteção na ordem dos micromolares por parte dos ESI de membrana polimérica, foi integrada num ensaio com um formato nao competitivo ELISA tipo sanduiche, utilizando um anticorpo primário ligado a nanopartículas de Fe@Au, permitindo a separação dos complexos anticorpo-antigénio formados dos restantes componentes em cada etapa do ensaio, pela simples aplicação de um campo magnético. O anticorpo secundário foi marcado com nanocristais de CdS, que são bastante estáveis e é fácil a transformação em Cd2+ livre, permitindo a leitura potenciométrica. Foram testadas várias concentrações de peroxido de hidrogénio e o efeito da luz para otimizar a dissolução de CdS. O método desenvolvido permitiu traçar curvas de calibração com soluções de Salmonellas incubadas em PBS (pH 4,4) em que o limite de deteção foi de 1100 CFU/mL e de 20 CFU/mL, utilizando volumes de amostra de 10 ƒÊL e 100 ƒÊL, respetivamente para o intervalo de linearidade de 10 a 108 CFU/mL. O método foi aplicado a uma amostra de leite bovino. A taxa de recuperação media obtida foi de 93,7% } 2,8 (media } desvio padrão), tendo em conta dois ensaios de recuperação efetuados (com duas replicas cada), utilizando um volume de amostra de 100 ƒÊL e concentrações de 100 e 1000 CFU/mL de Salmonella incubada.
Resumo:
O constante crescimento dos produtores em regime especial aliado à descentralização dos pontos injetores na rede, tem permitido uma redução da importação de energia mas também tem acarretado maiores problemas para a gestão da rede. Estes problemas estão relacionados com o facto da produção estar dependente das condições climatéricas, como é o caso dos produtores eólicos, hídricos e solares. A previsão da energia produzida em função da previsão das condições climatéricas tem sido alvo de atenção por parte da comunidade empresarial do setor, pelo facto de existir modelos razoáveis para a previsão das condições climatéricas a curto prazo, e até a longo prazo. Este trabalho trata, em concreto, do problema da previsão de produção em centrais mini-hídricas, apresentando duas propostas para essa previsão. Em ambas as propostas efetua-se inicialmente a previsão do caudal que chega à central, sendo esta depois convertida em potência que é injetada na rede. Para a previsão do caudal utilizaram-se dois métodos estatísticos: o método Holt-Winters e os modelos ARMAX. Os dois modelos de previsão propostos consideram um horizonte temporal de uma semana, com discretização horária, para uma central no norte de Portugal, designadamente a central de Penide. O trabalho também contempla um pequeno estudo da bibliografia existente tanto para a previsão da produção como de afluências de centrais hidroelétricas. Aborda, ainda, conceitos relacionados com as mini-hídricas e apresenta uma caraterização do parque de centrais mini-hídricas em Portugal.
Resumo:
Dado o panorama de conservação de energia a nível nacional e mundial, torna-se hoje em dia muito importante, que seja possível controlar e estimar o consumo energético nos edifícios. Assim, atendendo à actual problemática energética e ao crescente consumo energético nos edifícios, é importante parametrizar, avaliar e comparar este consumo. Neste sentido, nas últimas décadas, têm sido efectuados desenvolvimentos técnicos, quer ao nível do equipamento de campo para efectuar monitorização e medição, quer ao nível da simulação dinâmica de edifícios. Com esta dissertação de mestrado, pretendeu-se efectuar a simulação dinâmica de um edifício escolar existente a funcionar em pleno, e efectuar uma análise de sensibilidade relativamente ao grau de variação dos resultados obtidos através da aplicação de dois programas de cálculo térmico e energético. Foram utilizados, o programa VE-Pro da IES (Integrated Environmental Solutions) e o programa Trace 700 da TRANE. Ambos os programas foram parametrizados com os mesmos dados de entrada, tendo em atenção as opções de simulação disponibilizadas por ambos. Posteriormente, utilizaram-se os dados retirados da simulação para calcular a classificação energética no âmbito do sistema de certificação energética (SCE), através de uma folha de cálculo desenvolvida para o efeito. Foram ainda consideradas várias soluções de eficiência energética para o edifício, com vista a poupanças reais de energia, tendo sempre atenção ao conforto térmico dos ocupantes. Dessas medidas fazem parte, medidas relacionadas com a iluminação, como a substituição da iluminação existente por luminárias do tipo LED (Light Emitting Diode), soluções de energias renováveis, como a instalação de colectores solares para aquecimento das águas quentes sanitárias, e painéis fotovoltaicos para produção de energia, bem como medidas ligadas aos equipamentos de climatização. Posteriormente, recalculou-se a classificação energética afectada das melhorias. Os resultados obtidos nas duas simulações foram analisados sob o ponto de vista do aquecimento, arrefecimento, ventilação, iluminação e equipamentos eléctricos. A comparação das duas simulações para cada parâmetro acima referido, apresentaram variações inferiores a 5%. O desvio maior verificou-se na ventilação, com o valor de aproximadamente 4,9%. Transpondo estes resultados para o cálculo do IEE (Índice de Eficiência Energética), verificou-se um desvio inferior a 2%.
Resumo:
Os Transformadores de potência são máquinas de elevada importância ao nível dos Sistemas Elétricos de Energia (SEE) uma vez que são estas máquinas que possibilitam a interligação dos diferentes níveis de tensão da rede e a transmissão de energia elétrica em Corrente Alternada (CA). Geralmente, estas máquinas são de grandes dimensões e de elevado nível de complexidade construtiva. Caracterizam-se por possuírem períodos de vida útil bastante elevados (vinte a trinta anos) e preços elevados, o que conduz a um nível de exigência de fiabilidade muito elevada, uma vez que não e viável a existência de muitos equipamentos de reserva nos SEE. Com o objetivo de tentar maximizar o período de vida útil dos transformadores de potência e a sua fiabilidade, tenta-se, cada vez mais, implementar conceitos de manutenção preventiva a este tipo de máquinas. No entanto, a gestão da sua vida útil e extremamente complexa na medida em que, estas máquinas têm vários componentes cruciais e suscetiveis de originar falhas e, quase todos eles, encontram-se no interior de uma cuba. Desta forma, não e possível obter uma imagem do seu estado, em tempo real, sem colocar o transformador fora de serviço, algo que acarreta custos elevados. Por este motivo, desenvolveu-se uma técnica que permite obter uma indicação do estado do transformador, em tempo real, sem o retirar de serviço, colhendo amostras do óleo isolante e procedendo a sua análise físico-química e Analise Gases Dissolvidos (DGA). As análises aos óleos isolantes tem vindo a adquirir uma preponderância muito elevada no diagnóstico de falhas e na analise do estado de conservação destes equipamentos tendo-se desenvolvido regras para interpretação dos parâmetros dos óleos com carácter normativo. Considerando o conhecimento relativo a interpretação dos ensaios físico-químicos e DGA ao oleol, e possível desenvolver ferramentas capazes de otimizar essas mesmas interpretações e aplicar esse conhecimento no sentido de prever a sua evolução, assim como o surgimento de possíveis falhas em transformadores, para assim otimizar os processos de manutenção. Neste campo as Redes Neuronais Artificiais (RNAs) têm um papel fundamental
Resumo:
As empresas nacionais deparam-se com a necessidade de responder ao mercado com uma grande variedade de produtos, pequenas séries e prazos de entrega reduzidos. A competitividade das empresas num mercado global depende assim da sua eficiência, da sua flexibilidade, da qualidade dos seus produtos e de custos reduzidos. Para se atingirem estes objetivos é necessário desenvolverem-se estratégias e planos de ação que envolvem os equipamentos produtivos, incluindo: a criação de novos equipamentos complexos e mais fiáveis, alteração dos equipamentos existentes modernizando-os de forma a responderem às necessidades atuais e a aumentar a sua disponibilidade e produtividade; e implementação de políticas de manutenção mais assertiva e focada no objetivo de “zero avarias”, como é o caso da manutenção preditiva. Neste contexto, o objetivo principal deste trabalho consiste na previsão do instante temporal ótimo da manutenção de um equipamento industrial – um refinador da fábrica de Mangualde da empresa Sonae Industria, que se encontra em funcionamento contínuo 24 horas por dia, 365 dias por ano. Para o efeito são utilizadas medidas de sensores que monitorizam continuamente o estado do refinador. A principal operação de manutenção deste equipamento é a substituição de dois discos metálicos do seu principal componente – o desfibrador. Consequentemente, o sensor do refinador analisado com maior detalhe é o sensor que mede a distância entre os dois discos do desfibrador. Os modelos ARIMA consistem numa abordagem estatística avançada para previsão de séries temporais. Baseados na descrição da autocorrelação dos dados, estes modelos descrevem uma série temporal como função dos seus valores passados. Neste trabalho, a metodologia ARIMA é utilizada para determinar um modelo que efetua uma previsão dos valores futuros do sensor que mede a distância entre os dois discos do desfibrador, determinando-se assim o momento ótimo da sua substituição e evitando paragens forçadas de produção por ocorrência de uma falha por desgaste dos discos. Os resultados obtidos neste trabalho constituem uma contribuição científica importante para a área da manutenção preditiva e deteção de falhas em equipamentos industriais.
Resumo:
The present work reports new sensors for the direct determination of Microcystin-LR (MC-LR) in environmental waters. Both selective membrane and solid contact were optimized to ensure suitable analytical features in potentiometric transduction. The sensing layer consisted of Imprinted Sol–Gel (ISG) materials capable of establishing surface interactions with MC-LR. Non-Imprinted Sol–Gel (NISG) membranes were used as negative control. The effects of an ionic lipophilic additive, time of sol–gel polymerization, time of extraction of MC-LR from the sensitive layer, and pH were also studied. The solid contact was made of carbon, aluminium, titanium, copper or nickel/chromium alloys (80 : 20 or 90 : 10). The best ISG sensor had a carbon solid contact and displayed average slopes of 211.3 mV per decade, with detection limits of 7.3 1010 M, corresponding to 0.75 mg L1 . It showed linear responses in the range of 7.7 1010 to 1.9 109 M of MC-LR (corresponding to 0.77–2.00 mg L1 ), thus including the limiting value for MC-LR in waters (1.0 mg L1 ). The potentiometric-selectivity coefficients were assessed by the matched potential method for ionic species regularly found in waters up to their limiting levels. Chloride (Cl) showed limited interference while aluminium (Al3+), ammonium (NH4 + ), magnesium (Mg2+), manganese (Mn2+), sodium (Na+ ), and sulfate (SO4 2) were unable to cause the required potential change. Spiked solutions were tested with the proposed sensor. The relative errors and standard deviation obtained confirmed the accuracy and precision of the method. It also offered the advantages of low cost, portability, easy operation and suitability for adaptation to flow methods.
Resumo:
A presente dissertação apresenta o estudo de previsão do diagrama de carga de subestações da Rede Elétrica Nacional (REN) utilizando redes neuronais, com o intuito de verificar a viabilidade do método utilizado, em estudos futuros. Atualmente, a energia elétrica é um bem essencial e desempenha um papel fundamental, tanto a nível económico do país, como a nível de conforto e satisfação individual. Com o desenvolvimento do setor elétrico e o aumento dos produtores torna-se importante a realização da previsão de diagramas de carga, contribuindo para a eficiência das empresas. Esta dissertação tem como objetivo a utilização do modelo das redes neuronais artificiais (RNA) para criar uma rede capaz de realizar a previsão de diagramas de carga, com a finalidade de oferecer a possibilidade de redução de custos e gastos, e a melhoria de qualidade e fiabilidade. Ao longo do trabalho são utilizados dados da carga (em MW), obtidos da REN, da subestação da Prelada e dados como a temperatura, humidade, vento e luminosidade, entre outros. Os dados foram devidamente tratados com a ajuda do software Excel. Com o software MATLAB são realizados treinos com redes neuronais, através da ferramenta Neural Network Fitting Tool, com o objetivo de obter uma rede que forneça os melhores resultados e posteriormente utiliza-la na previsão de novos dados. No processo de previsão, utilizando dados reais das subestações da Prelada e Ermesinde referentes a Março de 2015, comprova-se que com a utilização de RNA é possível obter dados de previsão credíveis, apesar de não ser uma previsão exata. Deste modo, no que diz respeito à previsão de diagramas de carga, as RNA são um bom método a utilizar, uma vez que fornecem, à parte interessada, uma boa previsão do consumo e comportamento das cargas elétricas. Com a finalização deste estudo os resultados obtidos são no mínimo satisfatórios. Consegue-se alcançar através das RNA resultados próximos aos valores que eram esperados, embora não exatamente iguais devido à existência de uma margem de erro na aprendizagem da rede neuronal.
Resumo:
Na tentativa de se otimizar o processo de fabrico associado a uma tinta base aquosa (TBA), para minimizar os desvios de viscosidade final verificados, e de desenvolver um novo adjuvante plastificante para betão, recorreu-se a métodos e ferramentas estatísticas para a concretização do projeto. Relativamente à TBA, procedeu-se numa primeira fase a um acompanhamento do processo de fabrico, a fim de se obter todos os dados mais relevantes que poderiam influenciar a viscosidade final da tinta. Através de uma análise de capacidade ao parâmetro viscosidade, verificou-se que esta não estava sempre dentro das especificações do cliente, sendo o cpk do processo inferior a 1. O acompanhamento do processo resultou na escolha de 4 fatores, que culminou na realização de um plano fatorial 24. Após a realização dos ensaios, efetuou-se uma análise de regressão a um modelo de primeira ordem, não tendo sido esta significativa, o que implicou a realização de mais 8 ensaios nos pontos axiais. Com arealização de uma regressão passo-a-passo, obteve-se uma aproximação viável a um modelo de segunda ordem, que culminou na obtenção dos melhores níveis para os 4 fatores que garantem que a resposta viscosidade se situa no ponto médio do intervalo de especificação (1400 mPa.s). Quanto ao adjuvante para betão, o objetivo é o uso de polímeros SIKA ao invés da matériaprima comum neste tipo de produtos, tendo em conta o custo final da formulação. Escolheram-se 3 fatores importantes na formulação do produto (mistura de polímeros, mistura de hidrocarbonetos e % de sólidos), que resultou numa matriz fatorial 23. Os ensaios foram realizados em triplicado, em pasta de cimento, um para cada tipo de cimento mais utilizado em Portugal. Ao efetuar-se a análise estatística de dados obtiveram-se modelos de primeira ordem para cada tipo de cimento. O processo de otimização consistiu em otimizar uma função custo associada à formulação, garantindo sempre uma resposta superior à observada pelo produto considerado padrão. Os resultados foram animadores uma vez que se obteve para os 3 tipos de cimentocustos abaixo do requerido e espalhamento acima do observado pelo padrão.
Resumo:
Carbamate compounds are an important group of cholinesterase inhibitors. There is a need for creating awareness regarding the risks of the inadequate carbamate use in the residential areas due to potential adverse human effects. Carbaryl is a commonly used pesticide worldwide. A simple, fast, and high throughput method was developed employing liquid chromatography with fluorescence detector to determine carbaryl residues in rat feces. The extraction was performed by using a rapid, easy, cheap, effective, reliable, and safe (QuEChERS) method, using acetonitrile as the extracting solvent. The parameters for the performance of the extraction method were optimized, such as ratio of mass of sample per volume of extraction solvent, QuEChERS content, and cleanup columns. Linear response was obtained for all calibration curves (solven and matrix-matched) over the established concentration range (5 500 mg/L) with a correlation coefficients higher than 0.999. The achieved recovery was 97.9% with relative standard deviation values of 1.1% (n D 4) at 167 mg/kg fortified concentration level and the limits of detection and quantification were 27.7 and 92.3 mg/kg respectively.
Resumo:
We consider an international trade economical model where two firms of different countries compete in quantities and can use three different strategies: (i) repeated collusion, (ii) deviation from the foreigner firm followed by punishment by the home country and then followed by repeated Cournot, or (iii) repeated deviation followed by punishment. In some cases (ii) and (iii) can be interpreted as dumping.We compute the profits of both firms for each strategy and we characterize the economical parameters where each strategy is adopted by the firms.
Resumo:
Eruca sativa (rocket salad) has been intensely consumed all over the world, insomuch as, this work was undertaken to evaluate the antioxidant status and the environmental contamination (positive and negative nutritional contribution) of leaves and stems from this vegetable. Antioxidant capacity of rocket salad was assessed by mean of optical methods, such as the total phenolic content (TPC), reducing power assay and DPPH radical scavenging activity. The extent of the environmental contamination was reached through the quantification of thirteen organochlorine pesticides (OCP) by using gas chromatography coupled with electron-capture detector (GC-ECD) and compound confirmations employing gas chromatography tandem mass-spectrometry (GC-MS/MS). The OCP residues were extracted by using Quick, Easy, Cheap, Effective, Rugged and Safe (QuEChERS) methodology.The extent of the environmental contamination was reached through the quantification of thirteen OCP by using gas chromatography coupled with electron-capture detector (GC-ECD) and compound confirmations employing GC-MS/MS. The OCP residues were extracted by using Quick, Easy, Cheap, Effective, Rugged and Safe (QuEChERS) methodology. This demonstrated that leaves presented more antioxidant activity than stems, emphasizing that leaves contained six times more polyphenolic compounds than stems. In what concerns the OCP occurrence, the average recoveries obtained at the three levels tested (40, 60 and 80 µg kg−1) ranged from 55% to 149% with a relative standard deviation of 11%, (except hexachrorobenzene). Three vegetables samples were collected from supermarkets and analysed following this study. According to data, only one sample achieved 16.21 of β-hexachlorocyclohexane, confirmed by GC-MS/MS. About OCP quantification, the data indicated that only one sample achieved 16.21 µg kg−1 of β-hexachlorocyclohexane, confirmed by GC-MS/MS, being the QuEChERS a good choice for the of OCPs extraction. Furthermore, the leaves consumption guaranty higher levels of antioxidants than stems.
Resumo:
Cloud data centers have been progressively adopted in different scenarios, as reflected in the execution of heterogeneous applications with diverse workloads and diverse quality of service (QoS) requirements. Virtual machine (VM) technology eases resource management in physical servers and helps cloud providers achieve goals such as optimization of energy consumption. However, the performance of an application running inside a VM is not guaranteed due to the interference among co-hosted workloads sharing the same physical resources. Moreover, the different types of co-hosted applications with diverse QoS requirements as well as the dynamic behavior of the cloud makes efficient provisioning of resources even more difficult and a challenging problem in cloud data centers. In this paper, we address the problem of resource allocation within a data center that runs different types of application workloads, particularly CPU- and network-intensive applications. To address these challenges, we propose an interference- and power-aware management mechanism that combines a performance deviation estimator and a scheduling algorithm to guide the resource allocation in virtualized environments. We conduct simulations by injecting synthetic workloads whose characteristics follow the last version of the Google Cloud tracelogs. The results indicate that our performance-enforcing strategy is able to fulfill contracted SLAs of real-world environments while reducing energy costs by as much as 21%.