1000 resultados para COMPLEJIDAD COMPUTACIONAL


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La historiografía dedicada a la lepra, a los leprosos y a las leproserías en la época medieval ha desarrollado en las últimas décadas interesantes y innovadoras perspectivas de análisis. El trabajo enseguida presentado intenta explorar algunas de esas perspectivas aplicadas al caso portugués en los siglos XIV y XV. Entre varios aspectos, el principal objetivo es llamar la atención para la noción de leproso y para los diferentes factores que deben ser tenidos en consideración cuando el historiador piensa lo individuo enfermo. En realidad, la diversidad y complejidad de las situaciones verificadas exige no un abordaje simplista y general (leproso igual a excluido) pero una mirada que no deje de lado los aspectos que definen y caracterizan el leproso mas allá de la lepra.La historiografía dedicada a la lepra, a los leprosos y a las leproserías en la época medieval ha desarrollado en las últimas décadas interesantes y innovadoras perspectivas de análisis. El trabajo enseguida presentado intenta explorar algunas de esas perspectivas aplicadas al caso portugués en los siglos XIV y XV. Entre varios aspectos, el principal objetivo es llamar la atención para la noción de leproso y para los diferentes factores que deben ser tenidos en consideración cuando el historiador piensa lo individuo enfermo. En realidad, la diversidad y complejidad de las situaciones verificadas exige no un abordaje simplista y general (leproso igual a excluido) pero una mirada que no deje de lado los aspectos que definen y caracterizan el leproso mas allá de la lepra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As sociedades actuais defrontam-se com vários desafios de índole ambiental, sendo de particular destaque a produção crescente de resíduos sólidos urbanos. Pretende-se a longo prazo passar de uma sociedade de consumo desenfreado e de desperdício para uma sociedade de reciclagem, na qual a produção de resíduos sólidos urbanos é mínima e estes são vistos como um recurso a valorizar. Para isso, os RSU não devem ser encarados como um objecto indiferenciado, mas sim separados nas suas várias componentes. Estes constituintes devem ser analisados do ponto de vista físicoquímico e encaminhados para o ou os locais mais apropriados ao seu tratamento. Os Sistemas de Informação Geográfica desempenham um papel fundamental como ferramenta de apoio à decisão, permitindo determinar qual a instalação de tratamento mais próxima do local de geração de RSU e a área de influência do ponto de vista do produtor de RSU e das instalações de tratamento de resíduos (ponto de vista do licenciamento e planeamento), o que se consegue através de análise de redes, isto é, operações de simulação em ambiente computacional que permitem determinar o caminho mais curto entre dois pontos e optimizar as distâncias. Portugal tem vindo a evoluir o seu sistema de gestão de RSU de acordo com as orientações internacionais, que pretendem reduzir o volume de resíduos depositado em aterros, retirando ao RSU a fracção biodegradável para posterior valorização orgânica e produção de composto com valor acrescentado. No entanto, temos vindo a falhar no cumprimento das metas de reciclagem e no correcto encaminhamento de resíduos, sendo ainda a percentagem maioritária colocada em aterro sanitário. Este trabalho tem como objectivo fornecer uma ferramenta que permita determinar os vários destinos adequados ao tratamento de um determinado resíduo e encontrar, com o apoio da informação geográfica, a instalação mais próxima de um dado local de geração e a área de influência do ponto de vista do produtor/ gestor do RSU e do licenciamento e planeamento de novas instalações. Pretende-se desta forma minimizar os custos em transporte e verificar se uma dada área está bem servida em termos de estações de tratamento, não só em número, mas também em tipo. Esta ferramenta foi aplicada na Área Metropolitana de Lisboa, que é responsável por cerca de 30% da produção de resíduos a nível nacional e aglomera mais de um quarto da população nacional. Conclui-se que a Área Metropolitana de Lisboa está bem servida a nível de estações de tratamento, especialmente ecocentros e estações de triagem e principalmente na região a Sul do Tejo e no concelho de Lisboa. Nota-se que a distância de pontos de geração escolhidos a título de exemplo aos locais mais adequados para tratamento da maior percentagem do constituinte de RSU varia entre 4 e 53 km, sendo a maior distância devida à localização da única instalação de valorização energética da AML. De uma forma geral, os locais de tratamento encontram-se a distâncias inferiores a 30 km (excepto a zona de Mafra), não justificando a instalação de estações de transferência nos locais considerados. Contudo, alerta-se para a importância da instalação de estações de transferência em aglomerados populacionais com maior produção de resíduos, com o objectivo de concentrar os RSU num único local e minimizar a frequência de transporte. Finalmente, destaca-se o investimento em novas infraestruturas, principalmente por parte da empresa AMTRES / Tratolixo, que é responsável pela gestão de resíduos em Cascais, Oeiras, Sintra e Mafra, concelhos que apresentam maiores lacunas ao nível das instalações de tratamento de resíduos. Considera-se importante o estabelecimento de protocolos entre as várias entidades gestoras, de forma a garantir o correcto encaminhamento dos resíduos e a minimização do seu transporte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bacillus subtilis tem a capacidade de utilizar arabinoligossacáridos presentes na parede das células vegetais, através de um consórcios de enzimas envolvidas na hidrólise enzimática dos mesmos. A captação destes carbohidratos por parte do Bacillus subtilis depende de dois transportadores membranares AraE e AraNPQ-MsmX. Após a captação de L-arabinose e arabinoligossacáridos, estes substratos serão metabolizados pelos produtos enzimáticos codificados por genes pertencentes ao operão responsável pela metabolização de arabinose araABDLMNPQabfA. Neste operão, para além dos genes responsáveis pelo transportador AraNPQ, o gene araL determina a síntese de uma enzima com atividade de fosfatase, AraL, que tem putativamente como principal função a destoxificação de intermediários metabólicos fosforilados, em situações particulares. O objectivo deste trabalho consistiu em descobrir quais os determinantes moleculares envolvidos em ambos os processos de reconhecimento molecular, ora o reconhecimento de arabinoligossacáridos por parte da AraN, do ponto de vista dos carbohidratos ora de carbohidratos fosforilados do ponto de vista da AraL. Para elucidar estes processos de reconhecimento molecular proteína-carbohidrato foi utilizada a técnica de RMN, modelação computacional e mutagénese dirigida. No primeiro capitulo são introduzidos conceitos fundamentais para a percepção da ação de ambas as proteínas (AraN e AraL), no organismo Bacillus subtilis. O segundo capitulo, refere-se ao estudo dos mecanismos envolvidos no reconhecimento proteína-carbohidrato através da técnica de STD-RMN para estudar interações do ponto de vista do carbohidrato, bem como abordagens bioinformáticas tais como alinhamentos de sequencia primária e dockings moleculares, para identificar resíduos do ponto de vista da proteína passiveis de se encontrarem envolvidos no reconhecimento molecular, que numa última instância são mutados para se confirmar a sua relevância no processo de reconhecimento molecular do ponto de vista da proteína. Neste capitulo é demonstrado que a AraN é responsável pelo reconhecimento de arabinoligossacáridos e celoligossacáridos. No que diz respeito aos primeiros, a AraN reconhece preferencialmente arabinoligossacáridos com três subunidades, verificando-se a perda de saturação na subunidade não redutora da arabinotetraose. O processo de reconhecimento molecular apresenta uma constante de dissociação com uma ordem de grandeza na ordem dos μM. Do ponto de vista da proteína são identificados resíduos (W253, Y254 e Y54) putativos de se encontrarem também eles envolvidos no reconhecimento molecular do ponto de vista da AraN através de interações CHstacking. Finalmente no terceiro capitulo, é apresentada a optimização da sobrexpressão da AraL, dado que numa primeira fase a sua produção ocorria sob a forma de corpos de inclusão. Para tal são descritas metodologias de solubilização e renaturação da mesmas, com recurso a agentes caotrópicos (ureia e GmdCl) e detergentes (SDS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo teve como principal objetivo a preparação de bionanoconjugados de Tirosinase e nanopartículas de ouro (AuNPs) com a finalidade de observar alterações positivas da atividade enzimática relativamente à enzima livre em solução, a partir da determinação dos respetivos parâmetros cinéticos. A atividade específica da tirosinase foi determinada com tirosina, L-3,4-dihidroxifenilalanina (L-DOPA) e 4-metilcatecol, tendo este último sido escolhido como substrato a utilizar no decorrer do restante trabalho experimental devido ao maior número de unidades específicas determinado para este substrato, bem como devido à menor concentração de enzima necessária para a realização dos ensaios. Os ensaios cinéticos com variação da temperatura e pH permitiram concluir que a 30 oC e a pH 6,5 a tirosinase é mais ativa. Os bionanoconjugados foram preparados incubando tirosinase de um dia para o outro com AuNPs. Três diferentes agentes de revestimento foram usados nos estudos: AuNPs sintetizadas revestidas por citrato, funcionalizadas com ácido 11-mercaptoundecanóico (MUA) e funcionalizadas com pentapéptido CALNN. Diferentes razões molares de tirosinase : AuNPs foram estudadas e, apesar da baixa reprodutibilidade dos resultados, os mais consistentes foram obtidos para a razão molar de 120. A conjugação da tirosinase com AuNPs aumentou a afinidade para o substrato e também a eficiência catalítica, em todos os bionanoconjugados, sendo que os melhores resultados foram observados para AuNPs funcionalizadas com CALNN, aumentando cerca de 48% a eficiência catalítica relativamente à tirosinase na sua forma livre em solução. As AuNPs funcionalizadas com citrato apresentaram maior consistência de resultados relativamente ao aumento da velocidade inicial da reacção. A modelação computacional da tirosinase a pH 6,5 revelou que a carga superficial da enzima é maioritariamente negativa, dificultando a adsorção na superfície das AuNPs, podendo esta ocorrer em regiões de maior carga positiva localizadas na subunidade L ou englobando regiões da subunidade H.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescente poder computacional dos dispositivos móveis e a maior eficiência dos navegadores fomentam a construção de aplicações Web mais rápidas e fluídas, através da troca assíncrona de dados em vez de páginas HTML completas. A OutSystems Platform é um ambiente de desenvolvimento usado para a construção rápida e validada de aplicaçõesWeb, que integra numa só linguagem a construção de interfaces de utilizador, lógica da aplicação e modelo de dados. O modelo normal de interação cliente-servidor da plataforma é coerente com o ciclo completo de pedido-resposta, embora seja possível implementar, de forma explícita, aplicações assíncronas. Neste trabalho apresentamos um modelo de separação, baseado em análise estática sobre a definição de uma aplicação, entre os dados apresentados nas páginas geradas pela plataforma e o código correspondente à sua estrutura e apresentação. Esta abordagem permite a geração automática e transparente de interfaces de utilizador mais rápidas e fluídas, a partir do modelo de uma aplicação OutSystems. O modelo apresentado, em conjunto com a análise estática, permite identificar o subconjunto mínimo dos dados a serem transmitidos na rede para a execução de uma funcionalidade no servidor, e isolar a execução de código no cliente. Como resultado da utilização desta abordagem obtém-se uma diminuição muito significativa na transmissão de dados, e possivelmente uma redução na carga de processamento no servidor, dado que a geração das páginasWeb é delegada no cliente, e este se torna apto para executar código. Este modelo é definido sobre uma linguagem, inspirada na da plataforma OutSystems, a partir da qual é implementado um gerador de código. Neste contexto, uma linguagem de domínio específico cria uma camada de abstração entre a definição do modelo de uma aplicação e o respetivo código gerado, tornando transparente a criação de templates clientside e o código executado no cliente e no servidor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação, integra-se no projeto ‘Digitalização e Tratamento da Filmoteca Ultramarina Portuguesa’, que inclui o tratamento e digitalização de uma coleção de microfilmes em películas de 35 mm em AC. A coleção é composta por mais de meio milhão de exposições (511.397) de variadas marcas comerciais. Deste conjunto, os negativos da marca Perutz são a parte considerada em pior estado de preservação, contendo itens considerados irrecuperáveis, devido ao seu total encurvamento e enrolamento, comportamento incomum relacionado com a deterioração do AC. Portanto, este conjunto constitui o nosso objeto de estudo, prioritário a recuperar a informação contida nestes microfilmes, pois as coleções originais, em papel, estão inacessíveis e em mau estado de conservação. Devido a uma deterioração atípica, uma das etapas principais é compreender o material, tendo-se recorrido à MO, para análise da estratigrafia, à μ-FTIR e à medição da acidez com as A-D STRIPS® e dois métodos de potenciometria de pH (com a utilização de dois tipos de elétrodo, superfície plana e microelétrodo). Nos microfilmes aparentemente impossíveis de desenrolar, foram ensaiados e comparados neste estudo, diferentes tratamentos de C&R tradicionalmente aplicados nesta área, designadamente humidificação e transferência de emulsão, os quais se revelaram inadequados para as deteriorações em presença. Foi assim necessário recorrer a outras áreas afins da fotografia, para poder encontrar uma solução já testada com sucesso, a qual estaria na área do cinema, com o tratamento deshrinking que permitiu a recuperação da imagem possibilitando a sua informatização e colocação em base de dados, com o benefício inesperado de uma planificação permanente do objeto. Recorreu-se também à área da digitalização 3D e modulação computacional, mas sem resultados até a data. Assim, o tratamento deshrinking mostrou-se o mais eficaz sendo aprimorado, tendo-se passado de uma simples ação pontual e reversível de planificação para uma mais definitiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o presente trabalho pretende-se formular, implementar e validar duas classes de elementos finitos não-convencionais para problemas elastoestáticos e elastodinâmicos (harmónicos e transitórios) envolvendo barras solicitadas por cargas axiais. O desempenho numérico dos elementos não convencionais é estudado para uma larga gama de situações de interesse prático e comparado com o dos elementos finitos conformes de deslocamento (convencionais). A resolução de problemas transitórios envolve a integração no tempo e no espaço das equações diferenciais governativas, bem como a imposição das respetivas condições iniciais e de fronteira. A metodologia de integração no tempo adotada neste trabalho é baseada no método de Newmark. A resolução de problemas estáticos e harmónicos não carece de integração no tempo, ou a mesma é feita de forma trivial. Concluída a discretização no tempo, a segunda fase da resolução envolve a integração no espaço de cada uma das equações discretizadas, nomeadamente através do método dos elementos finitos. Para esse efeito, apresentam-se as formulações relativas aos elementos finitos convencionais, híbridos e híbridos-Trefftz. As três formulações têm como ponto de partida a forma fraca da equação diferencial de Navier, que é imposta utilizando o método de Galerkin. A principal diferença entre os elementos convencionais e não-convencionais prende-se com a maneira como são impostas as condições de fronteira de Dirichlet e as condições de compatibilidade nas fronteiras interiores. Os elementos não convencionais são implementados numa plataforma computacional desenvolvida de raiz no ambiente Matlab. A implementação é feita de maneira a permitir uma definição muito geral e flexível da estrutura e das respetivas ações, bem como das discretizações no tempo e no espaço e das bases de aproximação, que podem ser diferentes para cada elemento finito. Por fim, efetuam-se testes numéricos com o objetivo de analisar os resultados obtidos com os elementos não convencionais e de os comparar com as respetivas soluções analíticas (caso existam), ou com os resultados obtidos utilizando elementos convencionais. É especialmente focada a convergência das soluções aproximadas sob refinamentos da malha (h), no espaço e no tempo, e das funções de aproximação (p), sendo que o uso simultâneo dos dois refinamentos parece conduzir mais rapidamente a soluções próximas da solução exata. Analisam-se também problemas complexos, envolvendo propagação de ondas de choque, com o fim de se efetuar uma comparação entre os elementos convencionais, disponíveis no programa comercial SAP2000, e os elementos não convencionais fornecidos pela plataforma computacional desenvolvida neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a evolução dos recursos computacionais e o desenvolvimento dos modelos constitutivos disponíveis na avaliação do comportamento estrutural de elementos de betão armado, é comum recorrer-se cada vez mais a modelos numéricos que consideram a não-linearidade física e geométrica. As simulações numéricas obtidas com recurso a este tipo de modelos computacionais permitem obter um historial completo do comportamento estrutural, desde o início da aplicação do carregamento, até ao colapso total da estrutura. Contudo, verifica-se que em zonas de descontinuidade geométrica em estruturas de betão armado, a evolução do padrão de fendilhação é um fenómeno relativamente complexo, cuja simulação numérica representa um desafio considerável. O objectivo deste trabalho é o de verificar a aplicabilidade do Método dos Elementos Aplicados no estudo do desenvolvimento do padrão de fendilhação em paredes de betão armado, solicitadas por um carregamento monotónico. Foi analisado um conjunto de dez paredes, todas com uma abertura que provoca uma zona de descontinuidade geométrica e, consequentemente, um padrão de fendilhação mais complexo. Cada parede tem uma pormenorização de armadura diferente, permitindo verificar a fiabilidade do modelo computacional. Os resultados numéricos foram comparados com ensaios experimentais realizados por Bounassar Filho [8], permitindo tirar conclusões sobre as vantagens e as limitações deste método, quando aplicado ao estudo de estruturas de betão armado solicitadas por cargas monotónicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem o intuito de validar o código numérico OpenFoam para problemas de fenómeno de vibração induzida por desprendimento de vórtices num cilindro circular com um grau de liberdade transversal ao escoamento. Na primeira parte é simulado o escoamento em torno de um cilindro circular fixo, e na segunda parte o escoamento em torno do cilindro oscilatório. O número de Reynolds é 200 para todas as simulações e o movimento do cilindro é descrito segundo um sistema massa-mola e massa-mola-amortecedor. Para o movimento do cilindro utilizou-se o solver sixDoFRigidDisplacement e para a resolução de problemas de malha móvel o solver displacementLaplacian. O código numérico utilizado para o caso do cilindro fixo foi pimpleFoam e para o caso do cilindro oscilatório o pimpleDyMFoam. As simulações foram feitas através da resolução das equações de Navier-Stokes num domínio computacional bidimensional. Na simulação do escoamento em redor do cilindro fixo, os coeficientes de arrasto e sustentação e o número de Strouhal foram calculados e comparados com resultados da literatura. Os resultados estão próximos da realidade, no entanto observa-se que a dimensão da malha é muito importante para a precisão dos mesmos. Na simulação do escoamento em torno do cilindro oscilatório foram calculados os coeficientes de arrasto e sustentação e deslocamento do cilindro, para os sistemas massa-mola e massa-mola-amortecedor. Para os dois sistemas foi apresentada e comparada a evolução destes resultados em função da velocidade reduzida e por fim foram comparados. Observa-se que o fator de amortecimento afeta as respostas do cilindro, dependo da velocidade reduzida. Os resultados obtidos em ambos os estudos foram satisfatórios e conclui-se que o código OpenFoam é uma boa ferramenta para resolver problemas com o fenómeno de vibração induzida por vórtices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das principais causas de mortalidade durante a gravidez está relacionada com variações na pressão arterial materna, tal como a pré-eclâmpsia. Esta dissertação surgiu da necessidade de compreender o que provoca alterações na pressão arterial, a sua relação com o fluxo e velocidade e os efeitos nas artérias uterinas. De forma a perceber os efeitos da pressão no fluxo sanguíneo, modelou-se o sistema arterial materno, desde a aorta até às artérias uterinas, numa ferramenta de desenho tridimensional. Neste modelo foi aplicado um método de cálculo utilizando uma ferramenta de dinâmica de fluídos computacional, no qual se simulou o fluxo sanguíneo. Utilizaram-se como parâmetros de entrada, na aorta ascendente, uma função de velocidade e um valor saudável de pressão arterial central, e como parâmetro de saída introduziram-se vários valores de pressão arterial periférica normal e típicos de situações patofisiológicas, tais como hipertensão e pré-eclâmpsia. Obtiveram-se diagramas de velocidade, pressão e tensão de corte ao longo de todo o modelo arterial. Em cada saída do modelo, obtiveram-se os valores de fluxo calculados automaticamente, para cada pressão de saída introduzida. Alguns dos valores de fluxo obtidos foram comparados com valores existentes na literatura, de forma a avaliar a eficácia do modelo desenhado, concluindo-se que este produzia valores próximos dos reais. Desta forma efectuaram-se várias simulações, através das quais se percebeu que aumentando a pressão nas artérias uterinas, e mantendo constante a pressão de entrada, o fluxo de saída também aumenta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O galgamento oceânico é um fenómeno associado à interação de ondas com estruturas marítimas. Nesta dissertação estudou-se o galgamento em estruturas marítimas verticais através da aplicação do modelo numérico AMAZON, que é um modelo bidimensional, baseado na resolução das equações não lineares de águas pouco profundas. Para validar a sua aplicação a estruturas marítimas verticais impermeáveis, os resultados de caudal médio galgado obtidos com o modelo AMAZON foram comparados com os resultados de ensaios em modelo físico bidimensional realizados anteriormente e disponíveis na base de dados do projeto europeu CLASH. Os resultados foram ainda comparados com os das fórmulas empíricas e semi-empíricas de Van der Meer & Bruce de 2014, de Goda de 2008 e de Hedges & Reis de 2015. Antes da sua validação, o modelo foi calibrado utilizando um dos ensaios do CLASH. Para tal, realizou-se uma análise de sensibilidade a alguns parâmetros do modelo, concretamente da dimensão mínima da malha, da escala de aplicação do AMAZOM (à escala reduzida ou à do protótipo), da forma de modelação da parede vertical, já que, dado este modelo ser integrado na vertical, não é possível considerar paredes verticais sem utilizar um artifício de cálculo, dos valores de alguns dos parâmetros de entrada do modelo (profundidade mínima molhada e a profundidade mínima de fricção) e da dimensão do domínio de cálculo. Os resultados da calibração do AMAZON mostram que, por causa da precisão do modelo para os menores caudais médios de galgamento, se deve aplicar o modelo à escala do protótipo. Para estruturas verticais, a aproximação que o modelo faz, por defeito, para a secção vertical da estrutura através de um talude fictício a 10:1 apresenta melhores resultados que a utilização de um talude a 20:1. Contudo, ambos requerem a adoção de uma dimensão da malha bastante reduzida nesta zona e na sua vizinhança (0.03 m). No caso em estudo, os dois parâmetros de entrada do modelo não têm impacto significativo nos resultados, ao contrário do domínio de cálculo que, tal como recomendado na literatura de referência, se deve iniciar (fronteira de entrada) a aproximadamente um comprimento de onda do pé da estrutura. Os resultados obtidos mostram que, em geral, o AMAZON subestima o valor medido do caudal médio galgado com erros relativos variáveis entre -91% e -49%; apenas para um caso o modelo sobrestima o caudal médio, com um erro relativo de 43%. Quando comparado com as formulações empíricas e semi-empíricas, a fórmula de Van der Meer & Bruce apresenta melhores aproximações aos caudais médios medidos que constam na base de dados do CLASH, seguida da fórmula de Goda e dos resultados do modelo AMAZON, embora estes dois últimos apresentem valores bastante próximos. Assim, uma vez que o modelo está em constante desenvolvimento, espera-se que no futuro seja uma ferramenta mais poderosa. Contudo, enquanto não se fizerem melhorias no modelo e/ou não se estender a outros ensaios a análise feita no âmbito desta dissertação, os resultados sugerem que não há vantagem na sua utilização face às formulações empíricas e semi-empíricas disponíveis, tendo também em conta o significativo tempo computacional exigido para executar o AMAZON com a dimensão da malha escolhida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste artigo é verificar a influência da geometria urbana na intensidade de ilhas de calor noturnas com uso de uma ferramenta computacional desenvolvida como extensão de um SIG. O método deste trabalho está dividido em três principais etapas: desenvolvimento da ferramenta, calibração do modelo e simulação de cenários hipotéticos com diferentes geometrias urbanas. Um modelo simplificado que relaciona as intensidades máximas de ilha de calor urbana (ICUmáx) com a geometria urbana foi incorporado à subrotina de cálculo e, posteriormente, adaptado para fornecer resultados mais aproximados à realidade de duas cidades brasileiras, as quais serviram de base para a calibração do modelo. A comparação entre dados reais e simulados mostraram uma diferença no aumento da ICUmáx em função da relação H/W e da faixa de comprimento de rugosidade (Z0). Com a ferramenta já calibrada, foi realizada uma simulação de diferentes cenários urbanos, demonstrando que o modelo simplificado original subestima valores de ICUmáx para as configurações de cânions urbanos de Z0 < 2,0 e superestima valores de ICUmáx para as configurações de cânions urbanos de Z0 ≥ 2,0. Além disso, este estudo traz como contribuição à verificação de que cânions urbanos com maiores áreas de fachadas e com alturas de edificações mais heterogêneas resultam em ICUmáx menores em relação aos cânions mais homogêneos e com maiores áreas médias ocupadas pelas edificações, para um mesmo valor de relação H/W. Essa diferença pode ser explicada pelos diferentes efeitos na turbulência dos ventos e nas áreas sombreadas provocados pela geometria urbana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de Doutoramento - Programa Doutoral em Engenharia Industrial e Sistemas (PDEIS)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The MAP-i Doctoral Programme in Informatics, of the Universities of Minho, Aveiro and Porto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de Doutoramento - Leaders for Technical Industries (LTI) - MIT Portugal