138 resultados para Algoritmos construtivos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta Tese foi desenvolvida uma plataforma online multiutilizador, que tem como objetivo principal comparar algoritmos de análise de imagens para de-terminar o seu grau de eficácia. Um exemplo de aplicação é a comparação de algoritmos de análise de imagens da retina para deteção de drusas. A compa-ração é feita considerando um dos algoritmos como referência padrão e sobre o este são avaliados os restantes. O funcionamento da plataforma é semelhante à de um fórum, onde é possível a um utilizador criar tópicos publicando imagens e seu descritivo. Após a cria-ção do tópico qualquer utilizador pode visualizar o mesmo, dando a hipótese de comentar ou de acrescentar imagens processadas com os seus próprios al-goritmos de análise. Com o aumento de imagens processadas, obtém-se uma base de dados de algoritmos de análise de imagens sobre a qual é possível avaliar o seu grau de eficácia. A plataforma pretende também criar comunidades onde os utilizadores pos-sam interagir uns com os outros comentando sobre os tópicos, contribuindo assim para o melhoramento dos algoritmos. Deste modo, além de uma base de dados que qualquer utilizador pode usar, obtém-se uma fonte de informação disponibilizada por outros profissionais da área.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos tempos, a preocupação ambiental, passou a ser um tema recorrente na sociedade. A consciência coletiva da limitação do planeta em recursos naturais tem mostrado a necessidade de alterar os comportamentos no sentido de reduzir desperdícios, e conseguir objetivos do dia-a-dia de forma mais eficiente e menos penalizadora do já frágil equilíbrio ecológico. Os consumos energéticos, e especificamente os consumos em edifícios, contribuem de forma significativa para o desequilíbrio ambiental pelo que, cada vez mais, se assiste a um aumento da preocupação com a eficiência energética em edifícios e a consciência dos benefícios que daí podem resultar. A eficiência energética está intimamente relacionada com o não desperdício de energia. Para que não haja desperdício de energia é necessário saber onde essa energia é consumida bem como os fatores que influenciam o consumo. Há já algum tempo que se fazem estudos cujo principal objetivo é prever o consumo de energia num edifício, através da análise de um conjunto de variáveis, normalmente meteorológicas. Mais recentemente começam a surgir novos estudos nesta área, que consideram outro tipo de variáveis, nomeadamente variáveis relacionadas com o comportamento humano, que devidamente tratadas podem modelizar esse mesmo comportamento. Conseguir prever o consumo de um edifício de uma forma mais rigorosa tendo em consideração, não só fatores construtivos ou meteorológicos, mas também fatores resultantes de comportamentos das pessoas, será uma ferramenta preciosa em termos de projeto ou de exploração dos edifícios. Até que ponto a variável humana é importante na previsão de consumos energéticos? É a esta pergunta que a presente dissertação tenta responder. Para tal apresenta um método de estudo, que utiliza redes neuronais, dividido em etapas. Primeiramente é necessário conhecer as variáveis existentes num edifício de estudo, selecionar quais as que são pertinentes na previsão dos consumos e porquê. Em seguida é preciso prever a energia consumida através da análise das variáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO - A procura de cuidados de saúde constitui-se, desde há alguns anos, como um dos principais pontos de investigação na área da economia da saúde. São vários os estudos nacionais e internacionais publicados no decorrer do século passado, destacando-se o de Ronald Andersen, datado de 1960, que versou a utilização dos serviços de saúde pelas famílias e procurou descrever este fenómeno e os fatores condicionantes, na tentativa de conceber uma ferramenta de apoio ao desenvolvimento de políticas que promovessem a equidade no acesso aos serviços de saúde. Na década de 1970, Grossman, desenvolveu um modelo económico de procura em saúde (que ficou conhecido como Modelo de Grossman), estabelecendo que a procura de cuidados de saúde derivava da procura de saúde pelos indivíduos. A necessidade de caraterizar a procura dos cuidados de saúde, tem sido uma preocupação cada vez mais presente, considerando as restrições orçamentais que os sistemas de saúde atravessam, no contexto atual de restrições e medidas de austeridade. O Serviço Nacional de Saúde, em Portugal Continental, confronta-se, hoje mais do que nunca, com uma forte pressão orçamental, procurando promover a utilização mais racional e eficiente dos recursos disponíveis, o que condiciona todos os agentes que com ele contactam (profissionais de saúde, utentes, fornecedores e outros parceiros sociais). O presente estudo pretende caracterizar a procura e utilização dos cuidados de saúde de emergência pré-hospitalar, em 2010, em Portugal Continental, e contribuir, de uma forma restrita, para o processo de tomada de decisão adequada. A análise incidiu sobre os dados da procura do INEM, traduzida pelas chamadas (ocorrências) e pelas ativações de meios de emergências realizadas pelo CODU (Centros de Orientação de Doentes Urgentes). A via adotada para a prossecução deste estudo exploratório, baseou-se no Modelo Comportamental de Andersen, tendo sido escolhidas as variáveis, que melhor se enquadravam nos fatores predisponentes ou seja, aqueles que predispõem o indivíduo a utilizar os cuidados de saúde (e.g. sexo, idade), nos fatores capacitantes isto é, aqueles que habilitam (e.g. nível literário, instalações e equipamentos) e na necessidade de serviços de saúde (autoavaliada ou resultante da indicação de um profissional de saúde), todos eles definidos no referido modelo. Como variáveis de utilização efetiva dos cuidados de saúde, foram utilizados os dados fornecidos pelo INEM, nomeadamente o número de chamadas efetuadas para os CODU (ocorrências), e meios ativados, em consequência da ocorrência. Metodologicamente, optou-se por fazer uma análise descritiva dos resultados, seguida de análises de correlação e de regressão linear, de modo a aferir quais as variáveis que individualmente mais se correlacionam com a utilização e quais as variáveis (preditores) que melhor possibilitam a previsão da utilização dos cuidados de saúde de emergência pré-hospitalar. Os resultados obtidos na análise de correlação realizada por Concelho evidenciaram coeficientes de correlação, na sua maioria fracos ou moderados, não permitindo concluir de modo inequívoco que as variáveis predisponentes, capacitantes e de necessidade em saúde selecionadas, explicam a utilização dos cuidados de saúde de emergência pré-hospitalar. Foi possível, no entanto, e apesar de não muito marcante, demonstrar a existência de uma certa iniquidade na utilização, já que os fatores capacitantes parecem ser aqueles que melhor explicam a utilização dos cuidados de saúde de emergência pré-hospitalar, no ano de 2010. Quando a informação é agregada ao nível da Região e do CODU, as análises de correlação realizadas permitem constatar a existência de correlações moderadas e fortes entre os fatores que concorrem para a utilização (predisponentes, capacitantes e de necessidades em saúde). Os modelos preditivos determinados com recurso ao cálculo das regressões lineares não evidenciaram um comportamento homogéneo, quer no seu poder preditivo quer nas variáveis preditoras dos modelos. Verificou-se ainda que os modelos determinados tinham uma maior capacidade de predição da utilização de cuidados de emergência pré-hospitalar ao nível da ativação dos meios, do que ao nível do número de chamadas realizadas para os CODU, e que, de entre as ativações, os modelos determinados apresentaram maior capacidade preditiva da utilização de meios de suporte básico de vida, do que da utilização de meios de suporte avançado de vida. Um outro aspeto a ressaltar é a significância que as variáveis número de acidentes rodoviários com vítimas por 1000 habitantes, e número de meios de suporte básico de vida disponíveis por 100.000 habitantes têm nos modelos determinados, aparecendo em praticamente todos os modelos, como preditoras da utilização dos cuidados de saúde de emergência pré-hospitalar. Das análises realizadas ao nível das Regiões e dos CODU, verificou-se uma heterogeneidade nos resultados (influenciada pelas variáveis preditoras, nomeadamente das determinantes da procura – fatores demográficos, socioeconómicos e culturais), que influenciaram a capacidade preditiva dos modelos. Esta heterogeneidade, já havia sido descrita por Andersen, no seu modelo explicativo da utilização de cuidados de saúde. De facto, tal como no modelo teórico, também neste estudo se concluiu que as variáveis que mais contribuem para a predição da utilização são diversas, e variam de Região para Região, consoante a análise que se está a realizar. Fica em aberto a eventual pertinência da replicação do estudo, após a introdução de nova reorganização interna do INEM, nomeadamente com a eliminação da estrutura de 4 CODU passando a existir apenas um CODU nacional, a par da implementação de algoritmos de decisão, que poderão contribuir de forma significativa para a alteração da importância que as variáveis associadas à oferta, atualmente possuem, nos modelos determinados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O paradigma de avaliação do ensino superior foi alterado em 2005 para ter em conta, para além do número de entradas, o número de alunos diplomados. Esta alteração pressiona as instituições académicas a melhorar o desempenho dos alunos. Um fenómeno perceptível ao analisar esse desempenho é que a performance registada não é nem uniforme nem constante ao longo da estadia do aluno no curso. Estas variações não estão a ser consideradas no esforço de melhorar o desempenho académico e surge motivação para detectar os diferentes perfis de desempenho e utilizar esse conhecimento para melhorar a o desempenho das instituições académicas. Este documento descreve o trabalho realizado no sentido de propor uma metodologia para detectar padrões de desempenho académico, num curso do ensino superior. Como ferramenta de análise são usadas técnicas de data mining, mais precisamente algoritmos de agrupamento. O caso de estudo para este trabalho é a população estudantil da licenciatura em Eng. Informática da FCT-UNL. Propõe-se dois modelos para o aluno, que servem de base para a análise. Um modelo analisa os alunos tendo em conta a sua performance num ano lectivo e o segundo analisa os alunos tendo em conta o seu percurso académico pelo curso, desde que entrou até se diplomar, transferir ou desistir. Esta análise é realizada recorrendo aos algoritmos de agrupamento: algoritmo aglomerativo hierárquico, k-means, SOM e SNN, entre outros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reabilitação de um edifício tem muitas vezes de ser analisada e efetuada tendo em conta os edifícios vizinhos e a envolvente. No caso particular da reabilitação de um edifício, à partida devem considerar-se, de forma integrada, todos os requisitos que não são cumpridos face aos padrões atuais. Com base nessa análise, e tendo em conta muitas vezes condicionantes vários, que vão desde estéticos, técnicos, culturais a económicos, e que dependem em larga medida das tipologias construtivas, a intervenção tem de ser cuidadosamente concebida, preparada e executada. Apresentam-se sinteticamente as tipologias construtivas mais correntes, o contexto legislativo português da construção e específico da reabilitação. Efetua-se uma análise à legislação vigente, detalhando com maior detalhe o Regime Especial da Reabilitação Urbana, que possibilita dispensas de cumprimentos regulamentares mas apenas relativos a aspetos construtivos. Por esse motivo apresenta-se também uma síntese de aspetos relativos à segurança estrutural na reabilitação de edifícios com tipologias correntes. Pretende-se, através desta síntese, contribuir para uma visão mais integrada da reabilitação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como objectivo realizar uma avaliação da percepção do conforto acústico no interior das habitações, pelos seus habitantes. Estes dados subjectivos foram posteriormente relacionados com os descritores físicos utilizados para a caracterização do desempenho acústico de elementos construtivos. Para as amostras seleccionadas, três empreendimentos em Lisboa, os resultados acústicos dos mesmos foram obtidos pela análise de diversas notas técnicas, realizadas pelo departamento de Acústica e Iluminação do Laboratório Nacional de Engenharia Civil de Portugal. No âmbito deste estudo e em conjunto com o Laboratório Nacional de Engenharia Civil, e laboratórios congéneres europeus, desenvolveu-se um estudo, no formato de questionário, sobre as características de conforto acústico no interior dos edifícios de habitação em Portugal, o questionário COST TU0901. O questionário foi analisado em três partes. A 1ª parte corresponde à análise das questões referentes aos dados pessoais, a 2ª parte contém questões que pretendem medir a percepção dos moradores ao ruído no último ano e a 3ª parte tenta medir a sensibilidade dos mesmos ao ruído. Este estudo tem por base as respostas de 89 moradores de três empreendimentos, A,B e C, ao questionário mencionado anteriormente, que posteriormente foram analisadas através do pro-grama de cálculo estatístico SPSS - Statistical Package for the Social Science. Resultaram do estudo alguns indicadores comparáveis mas conclui-se que é essencial aumentar a amostra de casos de estudo para a apresentação de melhores resultados finais. As respostas ao questionário ajudaram na definição das exigências apropriadas que devem integrar a legislação sobre os requisitos acústicos de edifícios. Estas exigências têm como finalidade a prevenção de construção de soluções construtivas inadequadas, e a definição de condições de conforto acústico satisfatório. Exigências demasiado restritivas, conduzem a preços de habitações desnecessários, e por esse facto é importante avaliar as opiniões dos residentes, e a correspondente percepção sobre a satisfação relativamente ao isolamento acústico dos edifícios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo principal a implementação de uma arquitetura baseada em algoritmos evolutivos para a sintonização dos parâmetros do controlador PID (Proporcional-Integral-Derivativo) difuso, sendo o conceito de desempenho em malha fechada explicitamente tido em conta. A sintonização dos parâmetros do controlador difuso é realizada tendo em conta um problema de otimização com restrições, em que a função de custo a ser minimizada é descrita em termos do desempenho em malha fechada, com a dinâmica do sistema a ser aproximada por um modelo não linear. Como nas metodologias de otimização existentes, a incorporação de mecanismos de adaptação referentes às funções de pertença não é comum, na presente dissertação é tido em conta, para além da usual sintonização dos fatores de escala, a sintonização dos fatores de escala e funções de pertença em simultâneo. Os resultados experimentais realizados num sistema de referência, visam demonstrar os benefícios de incorporar as funções de pertença no processo de otimização em diferido. É também utilizado um método analítico de segunda ordem como referência, por forma a comparar o desempenho de uma abordagem de otimização global contra uma de otimização local. Finalmente é implementada uma abordagem em-linha, usando o método analítico de segunda ordem, na otimização dos fatores de escala e funções de pertença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O intuito desta dissertação é investigar em que medida a Teoria Moderna do Portfólio pode ser aplicada à selecção de um portfólio de canais ou de tácticas de Marketing Digital, de modo a obter o melhor compromisso entre o retorno esperado do investimento e o respectivo risco. Anteriores aplicações da teoria do portfólio ao Marketing, enquanto meio de racionalizar a selecção do portfólio, concentraram-se no uso deste modelo em decisões relacionadas com portfólios de produtos, de clientes e segmentos de clientes, de formatos de retalho e de promoções de preço. Não se encontraram evidências de que a abordagem proposta neste texto tenha já sido tentada. A evolução tecnológica nas últimas duas décadas trouxe a adopção generalizada de smartphones e tablets e também a revolução da internet, originando a proliferação do e-mail, dos blogs e dos sites de redes sociais. Devido à infinidade de meios para chegar aos consumidores, os marketers enfrentam actualmente grandes desafios no planeamento e na definição das suas estratégias de Marketing. Em resposta, consultoras detêm ferramentas para a análise de portfólios de canais de Marketing que permitem às empresas e aos marketers, em particular, melhorar o desempenho da sua actividade e maximizar o rendimento da sua despesa de Marketing. Contudo, além de dispendiosas e estritamente analíticas, estas ferramentas são muito sofisticadas, baseando-se em algoritmos e raciocínios complexos que nem sempre são evidentes para os marketers, o que dificulta a sua compreensão e consequentemente a sua adopção. Sem uma ferramenta de análise, é frequente os marketers fundamentarem as suas decisões nos resultados das campanhas online anteriores, registados pelas Web Analytics, e na sua experiência profissional. Assim, crê-se que a Teoria Moderna do Portfólio, baseando-se em conceitos estatísticos simples, possa representar para os marketers uma ferramenta útil no apoio à selecção do conjunto de canais ou de tácticas de Marketing Digital que melhor se adequa aos interesses e aos objectivos estratégicos das organizações. A Teoria Moderna do Portfólio tem como principais vantagens a análise e selecção de portfólios com base na sua combinação de retorno esperado e risco de investimento (retorno ajustado ao risco), por oposição a considerar exclusivamente o retorno esperado, e a simplicidade estatística do modelo, por oposição aos softwares das consultoras. O presente estudo fundamentou-se na literatura existente acerca da Teoria Moderna do Portfólio, concebida em 1952 por Harry Markowitz, bem como no conceito de Sharpe Ratio, por William Sharpe, tendo-se revisto também conceitos genéricos de Marketing e Marketing Digital. Dado que a medição do retorno financeiro do investimento em Marketing – central ao estudo – não é tão linear quanto a medição dos retornos de activos financeiros, revelou-se necessário introduzir algumas alterações à teoria do portfólio original. Estas alterações tomaram em consideração as principais conclusões dos estudos anteriores sobre a aplicação do modelo a outras áreas. Para desenvolver o modelo proposto, utilizou-se o Microsoft Excel. Seguidamente, procedeu-se à sua prova de conceito através de uma abordagem empírica, utilizando dados de uma empresa portuguesa de Marketing Digital. Concluiu-se que é possível aplicar a Teoria Moderna do Portfólio à selecção de canais ou tácticas de Marketing Digital de uma empresa, com as devidas adaptações, para determinar as parcelas do orçamento de comunicação de uma organização a alocar a cada tipo de canal ou táctica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A imagem por tensor difusão (DTI) é uma extensão da imagem por ressonância magnética que permite a caraterização microestrutural dos tecidos, sendo um destes, os músculos esqueléticos. No entanto, dadas as grandes dimensões dos mesmos, a aquisição de volumes DTI deste tipo de tecidos é comumente realizada em mais que uma sessão. A não linearidade dos gradientes de codificação espacial e a presença de magnetizações parasitas levam a que ocorram distorções que impossibilitam, quando unidos, a continuação de volumes na sua transição. No mercado já existem sotwares que permitem estas correções, no entanto, o seu objetivo tem como fim estudos populacionais aplicados na neurologia, não estando preparados para o alinhamento e união de volumes contíguos. Ao recorrer a algoritmos aplicados nestes softwares, com a devida preparação, é possível garantir a continuidade de volumes. Um desses algoritmos, demons, foi aplicado em pontos de sobreposição de imagens de volumes contíguos. A transformada resultante deste algoritmo foi aplicado ao volume considerado a transformar e unido ao volume de referência. Mostra-se ser possível a aplicação destes algoritmos para a continuação de volumes, sendo observada a preservação da coerência anatómica das fibras quando comparadas aos grupos de controlo. Numa versão futura, recomenda-se a utilização de algoritmos mais robustos, que tomam partido da informação direcional que a imagem por tensor de difusão fornece.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pretende-se estudar a utilização de um método analítico relativamente básico para cál-culo de deformações em treliças com vãos consideravelmente longos, com o intuito de ajudar o projetista a conceber um futuro projeto antes de conhecer a geometria da estrutura reticulada as-sim como as áreas de secção transversal dos elementos que a compõe. Numa primeira fase é avaliado o grau de aproximação à realidade do método analítico, e numa segunda fase é avaliado o ganho que pode ser obtido por utilização de métodos numéricos, podendo esta dissertação ser dividida em duas partes:  Uma análise estrutural comparativa entre um método analítico aproximado para o cálculo de deformações em treliças e um método numérico obtido a partir de um programa for-mulado para se usar em MATLAB, o PROAES, com o objetivo de avaliar a sua aderência à realidade;  Otimização dessas estruturas, primeiro de topologia para definir quais os elementos que serão necessários para a composição geométrica da treliça e em seguida uma combinação de otimização dimensional com otimização de forma para definir o valor das áreas de secção transversal de cada um dos elementos e a posição dos nós que os unem. Pretende-se também salientar a importância da carga crítica em estruturas do tipo tre-liça, nos elementos sujeitos a esforços normais de compressão, e qual a influência na geometria da estrutura e nas suas dimensões. O programa PROAES torna-se vantajoso face a outros algoritmos de otimização porque tem em conta as derivadas dos constrangimentos em ordem às variáveis consideradas no projeto, o que para além de acelerar o processo de otimização a nível informático, torna-se mais focado na procura de uma solução, na medida em que é um método determinístico e não aleatório, como é o caso, por exemplo, do método dos algoritmos genéticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de reestruturação do setor elétrico deu origem à criação de diferentes estruturas de mercado, tendo como objetivo o aumento da competitividade e eficiência. Atualmente, a comercialização de energia elétrica pode ser realizada com recurso a mercados em bolsa ou através da celebração de contratos bilaterais. Sendo o mercado em bolsa caraterizado por uma forte volatilidade de preços, e considerando a atribuição de incentivos para o crescimento da geração renovável não controlada, revela-se importante analisar o impacto de níveis elevados de energia eólica sobre os preços do mercado diário. Neste contexto, a presente dissertação tem como principais objetivos estudar e implementar os algoritmos de preço marginal único e preço marginal local, normalmente utilizados no mercado em bolsa, bem como dotar o simuladormultiagente MANREM com um módulo para simular os mercados diário e intradiário, e analisar o impacto de níveis elevados de energia eólica sobre os preços do mercado diário. O estudo detalhado de um caso prático e os resultados obtidos com recurso ao simuladormulti-agente permitiram replicar, em computador, o impacto esperado, sendo possível observar uma redução de preços e uma alteração dos compromissos de produção dos produtores convencionais. O estudo contemplou a simulação do mercado diário com recurso aos algoritmos de preço marginal único e preço marginal local, podendo constatar-se que a ferramenta multi-agente constitui um auxiliar importante à tomada de decisão nos mercados de eletricidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crise económica e social que assola Portugal desde 2008 e o aumento da exigência do nível de qualidade de vida dos utilizadores dos imóveis deram origem a um aumento de investimento na área de reabilitação de edifícios. A informação recolhida a partir dos Censos de 2011 mostra que existem cerca de dois milhões de imóveis, correspondentes a 34% do parque habitacional nacional, que necessitam de recuperação. Este facto ilustra bem a importância da aposta na reabilitação de edifícios no mercado português. A presente dissertação procura dar resposta a algumas das questões levantadas pela reabilitação de edifícios, nomeadamente em edifícios com paredes de tijolo maciço, através da análise higrotérmica de várias soluções construtivas que têm como camada de suporte o tijolo maciço, recorrendo ao programa WUFI® 4.2 - PRO. O WUFI® 4.2 - PRO foi um programa construído pelo Fraunhofer Institute for Building Physics que permite simular o transporte simultâneo de calor e de humidade unidimensional em elementos construtivos com várias camadas. Em primeiro lugar estudou-se o elemento construtivo com face à vista de modo a averiguar a influência da camada de tijolo maciço, seguindo-se uma análise à influência da espessura desta camada. Em segundo lugar analisou-se a influência do reboco exterior, interior e em ambas as faces na camada de tijolo maciço, tendo este estudo incluído argamassa de cal, de cal e cimento, e de cimento. Em terceiro lugar são analisadas as alterações que uma reabilitação térmica pelo interior ou pelo exterior impõem numa parede de tijolo maciço. Por último quantificou-se a diferença entre o coeficiente de transmissão térmica calculado em regime permanente e em regime variável, tendo esta análise sido efectuada para todos os elementos construtivos simulados na presente dissertação. O estudo desenvolvido permitiu corroborar o facto de que a chuva incidente é a principal responsável pelo transporte de humidade no interior do elemento construtivo, e que a quantidade de chuva incidente absorvida pela superfície exterior do elemento influencia tanto o fluxo de difusão como o fluxo capilar. As análises efectuadas permitiram clarificar a importância da camada de reboco. O reboco exterior diminui a quantidade de humidade na camada de tijolo maciço, enquanto o reboco interior implica um aumento. A aplicação de reboco em ambas as faces implica uma quantidade de humidade na camada de tijolo superior à aplicação apenas de reboco exterior. Dos rebocos analisados o único que não implica um aumento da quantidade de humidade é o reboco de cimento. Conclui-se que na aplicação de isolamento pelo exterior o reboco aplicado nas faces da camada de suporte não influencia de forma significativa o comportamento do elemento construtivo. No entanto, o mesmo não pode ser afirmado para a aplicação de isolamento pelo interior, já que o reboco exterior é principal responsável pela quantidade de humidade no elemento construtivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O planeamento das redes de distribuição de energia elétrica é considerado de extrema importância para o desenvolvimento de infraestruturas de elevada fiabilidade. A este nível, as empresas elétricas estão a ser confrontadas com objetivos contraditórios de clientes que requerem maior qualidade de serviço e dos que querem preços de energia mais baixos. Para competir neste contexto, é importante que as empresas elétricas estabeleçam um balanço entre os custos de investimento em equipamentos para aumentar a fiabilidade e o nível de fiabilidade alcançado com esse investimento. Este trabalho propõe resolver este problema de planeamento considerando a sua natureza multiobjectivo. Assim, foram desenvolvidos modelos matemáticos para a integração das diversas variáveis minimizadas associadas à fiabilidade, deste problema de otimização multiobjectivo. Nas últimas décadas, a crescente penetração da geração distribuída (GD) tem representado uma série de desafios técnicos para as redes de distribuição que foram concebidas de uma forma tradicional. Assim, propuseram-se modelos para a integração da GD no problema da fiabilidade deste tipo de redes. Neste contexto, também foi proposta uma abordagem para a análise da fiabilidade sob o ponto de vista da redução de gases de efeito de estufa. Neste momento, o problema da fiabilidade começa também a ser abordado quanto às interrupções momentâneas. Assim, considerou-se adicionalmente uma abordagem em que se consideram os sistemas de armazenamento de energia. Para a otimização das várias abordagens desenvolveram-se algoritmos de otimização do tipo evolutivo. Para testar as abordagens e modelos propostos, obtiveram-se resultados a partir de testes realizados sobre uma rede de distribuição real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Localizada no limite navegável do Guadiana, Mértola manteve, desde o período pré-romano, um contacto privilegiado com o mundo mediterrânico. A riqueza mineira da região em que Mértola se inclui fez da cidade um importante entreposto comercial, numa dinâmica que não foi interrompida com o fim do Império Romano. Os abundantes testemunhos da Antiguidade Tardia revelados pelos trabalhos arqueológicos têm trazido à luz um conjunto de ambiciosos programas construtivos, permitindo uma aproximação mais rigorosa à topografia de Mértola na Antiguidade Tardia. As primeiras descobertas devem-se a Estácio da Veiga, que nos finais do século XIX exumou, na zona do forum-alcáçova, um importante mosaico policromo com uma tartaruga como temática central. Posteriormente, e desde 1979, as escavações feitas pelo Campo Arqueológico de Mértola puseram a descoberto um significativo conjunto de vestígios deste tipo de material decorativo tão difundido no período romano e que fez a glória de Bizâncio. Do conjunto musivo fazem parte várias representações mitológicas das quais se destaca um painel com Blerofonte cavalgando Pégaso matando a Quimera e várias cenas de caça, das quais se destaca, um cavaleiro a caçar com um falcão, elemento bastante singular na iconografia dos mosaicos paleocristãos que deverão datar da primeira metade do século VI. Estes mosaicos, aqui sumariamente apresentados, estão inseridos nas imediações de uma estrutura baptismal e num pórtico que possivelmente se integram numa basílica ou num paço episcopal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Digital Breast Tomosynthesis (DBT) é uma técnica que permite obter imagens mamárias 3D de alta qualidade, que só podem ser obtidas através de métodos de re-construção. Os métodos de reconstrução mais rápidos são os iterativos, sendo no en-tanto computacionalmente exigentes, necessitando de sofrer muitas optimizações. Exis-tem optimizações que usam computação paralela através da implementação em GPUs usando CUDA. Como é sabido, o desenvolvimento de programas eficientes que usam GPUs é ainda uma tarefa demorada, dado que os modelos de programação disponíveis são de baixo nível, e a portabilidade do código para outras arquitecturas não é imedia-ta. É uma mais valia poder criar programas paralelos de forma rápida, com possibili-dade de serem usados em diferentes arquitecturas, sem exigir muitos conhecimentos sobre a arquitectura subjacente e sobre os modelos de programação de baixo nível. Para resolver este problema, propomos a utilização de soluções existentes que reduzam o esforço de paralelização, permitindo a sua portabilidade, garantindo ao mesmo tempo um desempenho aceitável. Para tal, vamos utilizar um framework (FastFlow) com suporte para Algorithmic Skeletons, que tiram partido da programação paralela estruturada, capturando esquemas/padrões recorrentes que são comuns na programação paralela. O trabalho realizado centrou-se na paralelização de uma das fases de reconstru-ção da imagem 3D – geração da matriz de sistema – que é uma das mais demoradas do processo de reconstrução; esse trabalho incluiu um método de ordenação modificado em relação ao existente. Foram realizadas diferentes implementações em CPU e GPU (usando OpenMP, CUDA e FastFlow) o que permitiu comparar estes ambientes de programação em termos de facilidade de desenvolvimento e eficiência da solução. A comparação feita permite concluir que o desempenho das soluções baseadas no FastFlow não é muito diferente das tradicionais o que sugere que ferramentas deste tipo podem simplificar e agilizar a implementação de um algoritmos na área de recons-trução de imagens 3D, mantendo um bom desempenho.