1000 resultados para Mundos possíveis
Resumo:
Atualmente considera-se que parasitas devem evoluir em direção à virulência reduzida, pois patógenos virulentos apresentam maiores probabilidades de levarem seus hospedeiros e eles próprios à extinção. A virulência é assim considerada estágio primitivo da associação parasita-hospedeiro. A validade dessas idéias tem sido questionada. Portanto, fez-se revisão dos estudos recentes que sugerem que parasitas não evoluem necessariamente em direção à reduzida virulência. Do ponto de vista da medicina darwinista, na evolução da virulência podem haver muitas trajetórias coevolutivas possíveis, que dependerão da história natural do parasita, do comportamento do hospedeiro e da via de transmissão.
Resumo:
O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.
Resumo:
Do ponto de vista das preocupações de saúde, os níveis de contaminação do ar interior assumem actualmente uma elevada importância quando se tem em consideração que as pessoas passam a maior parte do seu tempo no interior de edifícios. Neste contexto, o formaldeído é um dos poluentes mais preocupantes e, inclusivamente, os resultados de concentração obtidos em habitações do espaço Europeu foram considerados preocupantes devido ao facto de estarem relacionados com efeitos negativos para a saúde. O estudo exploratório desenvolvido pretendeu disponibilizar informação acerca das concentrações de formaldeído existentes em habitações domésticas portuguesas. Estudou‑se a presença de formaldeído em habitações novas e habitações domésticas com ocupação, abrangendo 6 unidades de cada um dos tipos considerados. Para a avaliação ambiental foi utilizado um equipamento de leitura direta que deteta as concentrações de formaldeído por fotoionização com uma lâmpada de 11,7 eV. A temperatura ambiente e a humidade relativa foram igualmente medidas, de acordo com o estipulado na Norma Internacional ISO 7726:1998. No caso das habitações novas foram registados valores de concentração superiores a 0,08 ppm em 3 das unidades estudadas. Por outro lado, em 4 das habitações com ocupação foram obtidos valores superiores a 0,08 ppm. O desenvolvimento deste estudo permitiu reconhecer algumas das possíveis fontes emissoras e os factores que influenciam as concentrações de formaldeído nas habitações em Portugal. ABSTRACT - Nowadays, indoor air contamination is considering an important health issue considering that people spend most of their time indoors. In this context, formaldehyde is a pollutant of major concern and, recently, concentration results obtained in European dwellings reveal high concentrations and values related with negative health effects in occupants. The present exploratory study sought to provide information about formaldehyde concentrations in Portuguese dwellings. It was studied formaldehyde presence in new dwellings and dwellings with occupation and included 6 units of each setting. For concentrations measure, it was used a direct‑reading equipment that detects formaldehyde concentration by photoionization. Temperature and relative humidity were also measured in accordance with International Standard ISO 7726:1998. In the case of new dwellings, in 3 units concentration values were higher than 0.08 ppm. In addition, in 4 units of the 6 dwellings with occupation, concentrations higher than this reference value were obtained. The development of this study permitted to recognize some of the possible indoors emissions sources and to define several of the preventive measures that can be applied.
Resumo:
Aborda-se, sob o ponto de vista do risco em epidemiologia, as propostas de educação em saúde com vistas à prevenção do HIV/AIDS. Levando em conta os resultados insatisfatórios dos programas de educação sanitária, baseados no conceito de risco visando ao controle da pandemia, discutem-se as possíveis premissas subjacentes às referidas propostas. Nelas, se destaca a concepção de racionalidade do receptor de tais conteúdos educacionais. Assim, ficam consideradas as noções que envolvem o entendimento público dos conceitos epidemiológicos. São discutidas limitações do instrumental epidemiológico para dar conta das dimensões interativas no adoecimento pela AIDS. Apresenta-se uma abordagem que procura levar em consideração tais aspectos.
Resumo:
Cada vez mais as pessoas se deslocam para locais desconhecidos por motivos profissionais, financeiros ou simplesmente por lazer. Em todas estas situações as primeiras dificuldades com que se deparam são saber qual o percurso a adoptar para chegar a um determinado destino e a falta de informação sobre o local onde se encontram, especialmente sobre os possíveis pontos de interesse que existem em redor. O presente trabalho propõe a concepção e a implementação de um sistema de visualização para dispositivos móveis de percursos pré-definidos baseado em standards. Pretende-se construir um software aberto de modo a poder ser utilizado em diversas aplicações geográficas modulares e facilitar a investigação na área, pois a maior parte do software disponibilizado é proprietário havendo apenas hipótese de interagir através de API disponibilizada. O trabalho pretende servir utilizadores que pretendam tirar partido de um guia digital móvel, materializado num dispositivo móvel com capacidade visualização gráfica do percurso. Pode ser utilizado nas mais diversas situações: orientação em trilhos ou rotas turísticas; identificação e orientação de pontos de interesse numa cidade ou região; ou informação de contexto. Para estimular a atenção do utilizador é proposto um mecanismo de alertas/avisos que serão despoletados durante a execução do percurso. Como muitas das funcionalidades disponibilizadas pelo sistema necessitam de efectuar cálculo de distâncias, é proposto um modelo de determinação de distâncias. De modo a gerir o conteúdo dos ficheiros utilizados é proposto um mecanismo de processamento de ficheiros, que permite efectuar transformações, validações e gravações de ficheiros. Para além da concepção e correspondente implementação do Visualizador, este trabalho apresenta ainda cenários de aplicação do sistema, ilustrando consequentemente a sua utilização em situações reais e encontra-se disponível para ser usado e melhorado pela comunidade científica, pois foi feito o registo como open source no site sourceforge.net.
Resumo:
As vias de comunicação são indispensáveis para o desenvolvimento de uma nação, económica e socialmente. Num mundo globalizado, onde tudo deve chegar ao seu destino no menor espaço de tempo, as vias de comunicação assumem um papel vital. Assim, torna-se essencial construir e manter uma rede de transportes eficiente. Apesar de não ser o método mais eficiente, o transporte rodoviário é muitas vezes o mais económico e possibilita o transporte porta-a-porta, sendo em muitos casos o único meio de transporte possível. Por estas razões, o modo rodoviário tem uma quota significativa no mercado dos transportes, seja de passageiros ou mercadorias, tornando-o extremamente importante na rede de transportes de um país. Os países europeus fizeram um grande investimento na criação de extensas redes de estradas, cobrindo quase todo o seu território. Neste momento, começa-se a atingir o ponto onde a principal preocu+ação das entidades gestoras de estradas deixa de ser a construção de novas vias, passando a focar-se na necessidade de manutenção e conservação das vias existentes. Os pavimentos rodoviários, como todas as outras construções, requerem manutenção de forma a garantir bons níveis de serviço com qualidade, conforto e segurança. Devido aos custos inerentes às operações de manutenção de pavimentos, estas devem rigorosamente e com base em critérios científicos bem definidos. Assim, pretende-se evitar intervenções desnecessárias, mas também impedir que os danos se tornem irreparáveis e economicamente prejudiciais, com repercussões na segurança dos utilizadores. Para se estimar a vida útil de um pavimento é essencial realizar primeiro a caracterização estrutural do mesmo. Para isso, torna-se necessário conhecer o tipo de estrutura de um pavimento, nomeadamente a espessura e o módulo de elasticidade constituintes. A utilização de métodos de ensaio não destrutivos é cada vez mais reconhecida como uma forma eficaz para obter informações sobre o comportamento estrutural de pavimentos. Para efectuar estes ensaios, existem vários equipamentos. No entanto, dois deles, o Deflectómetro de Impacto e o Radar de Prospecção, têm demonstrado ser particularmente eficientes para avaliação da capacidade de carga de um pavimento, sendo estes equipamentos utilizados no âmbito deste estudo. Assim, para realização de ensaios de carga em pavimentos, o equipamento Deflectómetro de Impacto tem sido utilizado com sucesso para medir as deflexões à superfície de um pavimento em pontos pré-determinados quando sujeito a uma carga normalizada de forma a simular o efeito da passagem da roda de um camião. Complementarmente, para a obtenção de informações contínuas sobre a estrutura de um pavimento, o equipamento Radar de Prospecção permite conhecer o número de camadas e as suas espessuras através da utilização de ondas electromagnéticas. Os dados proporcionam, quando usados em conjunto com a realização de sondagens à rotação e poços em alguns locais, permitem uma caracterização mais precisa da condição estrutural de um pavimento e o estabelecimento de modelos de resposta, no caso de pavimentos existentes. Por outro lado, o processamento dos dados obtidos durante os ensaios “in situ” revela-se uma tarefa morosa e complexa. Actualmente, utilizando as espessuras das camadas do pavimento, os módulos de elasticidade das camadas são calculados através da “retro-análise” da bacia de deflexões medida nos ensaios de carga. Este método é iterativo, sendo que um engenheiro experiente testa várias estruturas diferentes de pavimento, até se obter uma estrutura cuja resposta seja o mais próximo possível da obtida durante os ensaios “in Situ”. Esta tarefa revela-se muito dependente da experiência do engenheiro, uma vez que as estruturas de pavimento a serem testadas maioritariamente do seu raciocínio. Outra desvantagem deste método é o facto de apresentar soluções múltiplas, dado que diferentes estruturas podem apresentar modelos de resposta iguais. A solução aceite é, muitas vezes, a que se julga mais provável, baseando-se novamente no raciocínio e experiência do engenheiro. A solução para o problema da enorme quantidade de dados a processar e das múltiplas soluções possíveis poderá ser a utilização de Redes Neuronais Artificiais (RNA) para auxiliar esta tarefa. As redes neuronais são elementos computacionais virtuais, cujo funcionamento é inspirado na forma como os sistemas nervosos biológicos, como o cérebro, processam a informação. Estes elementos são compostos por uma série de camadas, que por sua vez são compostas por neurónios. Durante a transmissão da informação entre neurónios, esta é modificada pela aplicação de um coeficiente, denominado “peso”. As redes neuronais apresentam uma habilidade muito útil, uma vez que são capazes de mapear uma função sem conhecer a sua fórmula matemática. Esta habilidade é utilizada em vários campos científicos como o reconhecimento de padrões, classificação ou compactação de dados. De forma a possibilitar o uso desta característica, a rede deverá ser devidamente “treinada” antes, processo realizado através da introdução de dois conjuntos de dados: os valores de entrada e os valores de saída pretendidos. Através de um processo cíclico de propagação da informação através das ligações entre neurónios, as redes ajustam-se gradualmente, apresentando melhores resultados. Apesar de existirem vários tipos de redes, as que aparentam ser as mais aptas para esta tarefa são as redes de retro-propagação. Estas possuem uma característica importante, nomeadamente o treino denominado “treino supervisionado”. Devido a este método de treino, as redes funcionam dentro da gama de variação dos dados fornecidos para o “treino” e, consequentemente, os resultados calculados também se encontram dentro da mesma gama, impedindo o aparecimento de soluções matemáticas com impossibilidade prática. De forma a tornar esta tarefa ainda mais simples, foi desenvolvido um programa de computador, NNPav, utilizando as RNA como parte integrante do seu processo de cálculo. O objectivo é tornar o processo de “retro-análise” totalmente automático e prevenir erros induzidos pela falta de experiência do utilizador. De forma a expandir ainda mais as funcionalidades do programa, foi implementado um processo de cálculo que realiza uma estimativa da capacidade de carga e da vida útil restante do pavimento, recorrendo a dois critérios de ruína. Estes critérios são normalmente utilizados no dimensionamento de pavimentos, de forma a prevenir o fendilhamento por fadiga e as deformações permanentes. Desta forma, o programa criado permite a estimativa da vida útil restante de um pavimento de forma eficiente, directamente a partir das deflexões e espessuras das camadas, medidas nos ensaios “in situ”. Todos os passos da caracterização estrutural do pavimento são efectuados pelo NNPav, seja recorrendo à utilização de redes neuronais ou a processos de cálculo matemático, incluindo a correcção do módulo de elasticidade da camada de misturas betuminosas para a temperatura de projecto e considerando as características de tráfego e taxas de crescimento do mesmo. Os testes efectuados às redes neuronais revelaram que foram alcançados resultados satisfatórios. Os níveis de erros na utilização de redes neuronais são semelhantes aos obtidos usando modelos de camadas linear-elásticas, excepto para o cálculo da vida útil com base num dos critérios, onde os erros obtidos foram mais altos. No entanto, este processo revela-se bastante mais rápido e possibilita o processamento dos dados por pessoal com menos experiência. Ao mesmo tempo, foi assegurado que nos ficheiros de resultados é possível analisar todos os dados calculados pelo programa, em várias fases de processamento de forma a permitir a análise detalhada dos mesmos. A possibilidade de estimar a capacidade de carga e a vida útil restante de um pavimento, contempladas no programa desenvolvido, representam também ferramentas importantes. Basicamente, o NNPav permite uma análise estrutural completa de um pavimento, estimando a sua vida útil com base nos ensaios de campo realizados pelo Deflectómetro de Impacto e pelo Radar de Prospecção, num único passo. Complementarmente, foi ainda desenvolvido e implementado no NNPav um módulo destinado ao dimensionamento de pavimentos novos. Este módulo permite que, dado um conjunto de estruturas de pavimento possíveis, seja estimada a capacidade de carga e a vida útil daquele pavimento. Este facto permite a análise de uma grande quantidade de estruturas de pavimento, e a fácil comparação dos resultados no ficheiro exportado. Apesar dos resultados obtidos neste trabalho serem bastante satisfatórios, os desenvolvimentos futuros na aplicação de Redes Neuronais na avaliação de pavimentos são ainda mais promissores. Uma vez que este trabalho foi limitado a uma moldura temporal inerente a um trabalho académico, a possibilidade de melhorar ainda mais a resposta das RNA fica em aberto. Apesar dos vários testes realizados às redes, de forma a obter as arquitecturas que apresentassem melhores resultados, as arquitecturas possíveis são virtualmente ilimitadas e pode ser uma área a aprofundar. As funcionalidades implementadas no programa foram as possíveis, dentro da moldura temporal referida, mas existem muitas funcionalidades a serem adicinadas ou expandidas, aumentando a funcionalidade do programa e a sua produtividade. Uma vez que esta é uma ferramenta que pode ser aplicada ao nível de gestão de redes rodoviárias, seria necessário estudar e desenvolver redes similares de forma a avaliar outros tipos de estruturas de pavimentos. Como conclusão final, apesar dos vários aspectos que podem, e devem ser melhorados, o programa desenvolvido provou ser uma ferramenta bastante útil e eficiente na avaliação estrutural de pavimentos com base em métodos de ensaio não destrutivos.
Resumo:
Objetivou-se testar a associação do diabetes mellitus com a doença isquêmica do coração, procedendo-se ao ajustamento simultâneo para possíveis variáveis de confusão e/ou modificadoras de efeito. O estudo foi planejado sob a forma de um desenho tipo caso-controle, a coleta de dados estendeu-se de março de 1993 a fevereiro de 1994. Utilizou-se a estratégia de compor três bancos de dados que permitiram a realização do estudo em duas bases populacionais: uma base primária e uma base secundária. A amostra total foi composta por 833 indivíduos de ambos os sexos, na faixa etária de 30 a 69 anos completos, sendo todos residentes no município de São Paulo. A técnica estatística utilizada para a análise dos dados foi a regressão logística multivariada. Os resultados permitiram identificar que o diabetes mellitus não se constituiu em fator de risco independente para a doença isquêmica do coração, nas duas bases populacionais estudadas. Por outro lado, foi possível identificar, de forma consistente, um efeito independente para as variáveis hipertensão arterial, hipercolesterolemia, hábito de fumar e antecedentes familiares de cardiopatia. As interações consideradas de interesse, combinando-se história positiva de diabetes com as categorias de exposição de outras variáveis, não apresentaram significância estatística. São apresentadas algumas razões de ordem metodológica que exerceriam influência sobre a magnitude das medidas de efeito em diferentes bases populacionais. Conclui-se que o desaparecimento da associação diabetes x doença isquêmica do coração foi decorrente da presença, nos modelos, de potentes fatores de risco.
Resumo:
Resultados de diversos estudos têm apontado a relevância da hipertensão arterial, do hábito de fumar e da hipercolesterolemia como fatores de risco para a doença isquêmica do coração (DIC). Poucos autores têm investigado a existência de gradiente linear relacionando a quantidade destas exposições com os eventos coronarianos. Com o objetivo de avaliar o efeito de diferentes graus de exposição a estas variáveis sobre a DIC, procedendo-se ao ajustamento para possíveis variáveis de confusão, foi feito estudo planejado sob a forma de desenho tipo caso-controle, tendo a coleta de dados se estendido de março de 1993 a fevereiro de 1994. Foram estudados 833 indivíduos de ambos os sexos, na faixa etária compreendida entre 30 e 69 anos completos, sendo todos residentes no Município de São Paulo, SP (Brasil). Foram comparados 280 casos com 553 controles (285 controles de vizinhança e 268 controles hospitalares). A técnica estatística utilizada para a análise dos dados foi a regressão logística multivariada. Os resultados permitiram identificar gradiente linear para as variáveis duração da hipertensão arterial e para número de cigarros consumidos/dia. As variáveis duração do hábito de fumar e duração da hipercolesterolemia, embora tendo apresentado "odds ratios" significantes para as respectivas categorias de exposição, não apresentaram gradiente linear. Foram discutidos aspectos metodológicos que poderiam exercer influência sobre a tendência dos "odds ratios" nas categorias de exposição das variáveis duração do hábito de fumar e duração da hipercolesterolemia. Conclui-se que os efeitos dose-resposta observados para as variáveis duração da hipertensão arterial e número de cigarros consumidos/dia foram independentes da presença nos modelos de potentes fatores de risco para a doença isquêmica do coração.
Resumo:
O aparecimento da Tomografia Computorizada (TC) Multicorte no início dos anos noventa veio revolucionar os estudos crânio-encefálicos, possibilitando a avaliação funcional da hemodinâmica cerebral através dos estudos de perfusão.Com a natural evolução dos equipamentos de TC e dos softwares comerciais de análise de imagem foi crescendo o campo de aplicabilidade da TC de perfusão, surgindo os sistemas de análise fisiológica, úteis no estudo da vasculatura tumoral. Na actualidade, a TC tem provas dadas no diagnóstico de patologias tumorais, mostrando-se útil na caracterização da lesão primária e das possíveis metástases associadas, na avaliação do risco e na monitorização da resposta terapêutica, revelando-se um excelente indicador da angiogénese tumoral. Os estudos de perfusão são obtidos através da monitorização do comportamento de um bólus de contraste iodado através da vasculatura tumoral e os dados e correntes do padrão de distribuição deste no tecido tumoral podem fornecer informações relativas às suas propriedades fisiológicas.
Resumo:
A análise da participação das crianças e suas articulações com as instituições para a infância, especialmente a escola, é actualmente um dos temas mais expressivos nos estudos educacionais e sociológicos da infância (Sarmento, 2005). Pese embora a sua complexidade, torna-se cada vez mais urgente e necessário ouvir as crianças relativamente à sua acção e agência no espaço social onde passam mais tempo: a escola. Esta urgência advém da mudança de uma perspectiva paradigmática que considerava as crianças como objectos de intervenção, sem acção política, para uma perspectiva paradigmática que considera as crianças como actores sociais com direitos, nomeadamente os que estão consagrados na Convenção dos Direitos da Criança (1989), nomeadamente o artigo 12 (direito de expressão), o artigo 13 (direito de informar e ser informado) e o artigo 15 (direito de associação). Este texto apresenta um trabalho de investigação com carácter exploratório desenvolvido em seis agrupamentos de Escolas da área metropolitana de Lisboa, alguns dos quais com programa TEIP, e tem como objectivo central fazer algumas reflexões, ainda que provisórias, sobre a (não) participação das crianças em contexto escolar. Para o efeito, analisamos os discursos de vários actores: crianças, directores, professores, assistentes operacionais, associação de pais, animadores e mediadores socioculturais, sobre a participação das crianças: concepções, representações e acções. O trabalho empírico foi desenvolvido em contexto escolar, de forma a contribuir para a desconstrução da ideia de que "as escolas são os mundos dos professores nos quais as crianças são hóspedes temporários" (Cullingford, 1991 cit in Wyness, 1999, p.356).
Resumo:
Este relatório de estágio, que se realizou no Edifício Atrium Saldanha em Lisboa, tem por finalidade demonstrar as aptidões adquiridas no decorrer do Mestrado e que tornaram possíveis a participação num estágio que envolveu várias áreas da Engenharia Mecânica. Nos últimos anos, tem-se assistido a um crescente aumento do consumo e do custo da energia eléctrica. De acordo com análises realizadas pela União Europeia, uma percentagem significativa deste aumento de consumo está relacionado com edifícios e habitações. A manutenção preventiva das instalações técnicas é, entre outros aspectos, uma das ferramentas essenciais na redução desta factura energética. A questão que se coloca relaciona-se com a metodologia a aplicar para esse efeito. De que forma podem ou devem os planos de manutenção ser elaborados, qual a periodicidade das intervenções a considerar de modo a aumentar a eficiência energética dos edifícios, reduzir as emissões de dióxido de carbono e garantir uma maior protecção do utilizador? Numa fase inicial do estágio foi feita uma caracterização geral das principais instalações técnicas do edifício de modo a se analisarem, posteriormente, os procedimentos de manutenção adoptados pelas equipas de manutenção. Foram ainda sugeridas algumas periodicidades para os procedimentos de manutenção já existentes e algumas intervenções que não estavam incluídas no plano de manutenção do edifício e que podem contribuir para aumentar a fiabilidade dos equipamentos e consequentemente a eficiência energética e a qualidade do ar interior dos edifícios.
Resumo:
Neste trabalho pretende-se estudar, dimensionar e implementar experimentalmente de um sistema de alimentação para transformadores de alta tensão a alta frequência. Este sistema será constituído por dois elementos principais, um rectificador monofásico em ponte totalmente controlado e por um inversor de tensão. Inicialmente realizou-se um estudo sobre as diferentes topologias possíveis para o rectificador considerando diferentes tipos de carga. Realizou-se, também, um estudo sobre o circuito de geração dos impulsos de disparo dos tiristores, executado com base num circuito integrado TCA 785, dimensionou-se os elementos constituintes do circuito de disparo, e de um sistema de controlo da tensão de saída do rectificador. Posteriormente estudou-se o funcionamento do inversor de tensão, definindo-se os modos de operação e dimensionou-se um circuito ressonante tendo em conta os parâmetros construtivos do transformador que se pretende utilizar. Finalmente procedeu-se à implementação prática dos sistemas previamente dimensionados e simulados e à apresentação dos respectivos resultados.
Resumo:
Num mercado de electricidade competitivo onde existe um ambiente de incerteza, as empresas de geração adoptam estratégias que visam a maximização do lucro, e a minimização do risco. Neste contexto, é de extrema importância para desenvolver uma estratégia adequada de gestão de risco ter em conta as diferentes opções de negociação de energia num mercado liberalizado, de forma a suportar a tomada de decisões na gestão de risco. O presente trabalho apresenta um modelo que avalia a melhor estratégia de um produtor de energia eléctrica que comercializa num mercado competitivo, onde existem dois mercados possíveis para a transacção de energia: o mercado organizado (bolsa) e o mercado de contratos bilaterais. O produtor tenta maximizar seus lucros e minimizar os riscos correspondentes, seleccionando o melhor equilíbrio entre os dois mercados possíveis (bolsa e bilateral). O mercado de contratos bilaterais visa gerir adequadamente os riscos inerentes à operação de mercados no curto prazo (mercado organizado) e dar o vendedor / comprador uma capacidade real de escolher o fornecedor com que quer negociar. O modelo apresentado neste trabalho faz uma caracterização explícita do risco no que diz respeito ao agente de mercado na questão da sua atitude face ao risco, medido pelo Value at Risk (VaR), descrito neste trabalho por Lucro-em-Risco (PAR). O preço e os factores de risco de volume são caracterizados por um valor médio e um desvio padrão, e são modelizados por distribuições normais. Os resultados numéricos são obtidos utilizando a simulação de Monte Carlo implementado em Matlab, e que é aplicado a um produtor que mantém uma carteira diversificada de tecnologias de geração, para um horizonte temporal de um ano. Esta dissertação está organizada da seguinte forma: o capítulo 1, 2 e 3 descrevem o estado-da-arte relacionado com a gestão de risco na comercialização de energia eléctrica. O capítulo 4 descreve o modelo desenvolvido e implementado, onde é também apresentado um estudo de caso com uma aplicação do modelo para avaliar o risco de negociação de um produtor. No capítulo 5 são apresentadas as principais conclusões.
Resumo:
INTRODUÇÃO: A "cesta básica Dieese e Procon", originada de uma Pesquisa de Padrão de Vida e Emprego no Município de São Paulo, tem sido empregada como parâmetro para o acompanhamento de preços. Seria desejável que um instrumento econômico, utilizado com esta finalidade, correspondesse também a uma nutrição efetivamente saudável. Assim, foram analisados os níveis de adequação dos itens alimentares da cesta básica em relação às necessidades nutricionais de uma família-referência paulistana, e propostas técnicas de complementação dietética para sanar possíveis deficiências ou desbalanceamento. METODOLOGIA: Utilizou-se o Censo Demográfico do IBGE, de 1991, para se determinar a família-referência; adotaram-se dois terços das "Recommended Dietary Allowances" como parâmetro de necessidades nutricionais; e utilizou-se das tabelas de composição centesimal para verificação do aporte de nutrientes da cesta básica. Efetuou-se a complementação alimentar por meio de três diferentes métodos: Ad Hoc (proposta direta e fixa), Programação Linear (proposta via computador e sazonal, com ênfase na minimização de custos), Híbrido (uma combinação dos dois anteriores). RESULTADOS: Foram encontrados valores insuficientes para as vitaminas A, C, B2 e B6 e para os minerais Ca, Mg, Fe, Zn, I e Se; o percentual de lipídios no total calórico mostrou-se elevado. Entre as técnicas de complementação, o método Híbrido pareceu assimilar, mais eficientemente, os baixos custos e os hábitos dietéticos. DISCUSSÃO: Inferiu-se uma eventual correspondência entre os problemas nutricionais detectados na relação de itens da cesta básica e a chamada transição alimentar que se processa nos países em desenvolvimento. Não parece aconselhável que os riscos epidemiológicos associados a essa alteração nos padrões dietéticos sejam incorporados num instrumento econômico que tenha por finalidade mensurar os preços de uma alimentação equilibrada.
Resumo:
A larga difusão, nos últimos anos, de softwares estatísticos indicados para análises multivariadas, aliada à facilidade de seu manuseio, poderá conduzir os usuários à obtenção de estimativas enganosas caso não se conheçam os pressupostos teóricos necessários para o emprego destas técnicas. Com o propósito de se destacar alguns desses pressupostos, apresentam-se as etapas executadas para a análise dos dados de um estudo caso-controle, conduzido no Município de São Paulo, entre março de 1993 e fevereiro de 1994, cujo objetivo foi testar a associação do diabetes mellitus com a doença isquêmica do coração após o ajustamento para possíveis variáveis de confusão e/ou modificadoras de efeito. Para uma melhor visualização didática desses pressupostos metodológicos são destacadas quatro etapas fundamentais durante a fase de análise dos dados: a) construção do banco de dados; b) cálculo do poder estatístico; c) categorização e codificação das variáveis e d) a escolha do modelo de regressão logística multivariada.