93 resultados para Câmbio - Modelos econômicos
Resumo:
Os incêndios em edifícios representam um fenómeno que pode ter consequências devastadoras quando não controlado, não só em termos de perdas de vidas humanas, como em termos económicos. No passado, a ocorrência de incêndios de grandes dimensões mostrou os efeitos do fogo descontrolado nos edifícios, assim como a ineficiência dos meios de segurança ativa ao fogo. Nas últimas duas décadas, estas questões motivaram o estudo e compreensão da ação dos incêndios nas estruturas dos edifícios. Neste trabalho estuda-se a modelação da ação do fogo em estruturas metálicas e mistas, com o objetivo de contribuir para a sua melhor caracterização. A presente tese foca-se na validação e compreensão da implementação de análises termo-mecânicas a estruturas mistas no software de elementos finitos OpenSees (Open System for Earthquake Engineering Simulation), contribuindo assim para futuros estudos, não só de análises de estruturas mistas sujeitas a incêndio, mas também de análises de estruturas mistas sujeitas a eventos consecutivos, como sismo seguido de incêndio. Neste trabalho é feita uma breve descrição do fenómeno fogo, assim como dos processos inerentes à dinâmica de um incêndio que constituem uma fonte de incerteza para a modelação de cenários de incêndio num edifício. Posto isto, são abordados alguns modelos de incêndios presentes nos Eurocódigos, assim como o recente modelo de fogos móveis(“Travelling fires”). São realizados exemplos de aplicação no software e dois casos de estudo. O primeiro consiste na modelação de dois ensaios ao fogo realizados na Alemanha em 1986 em estruturas metálicas à escala 1/4. O segundo consiste na modelação de um ensaio ao fogo a uma viga de betão armado simplesmente apoiada, realizado no Instituto Superior Técnico em 2010. Os modelos numéricos desenvolvidos no OpenSees contabilizam as não linearidades físicas e geométricas, com elementos finitos de plasticidade distribuída e com uma formulação baseada em deslocamentos. Os resultados numéricos são então comparados com os experimentais, de modo a validar as análises termo-mecânicas no OpenSees.
Resumo:
No processo de desenvolvimento de software, um dos problemas recorrentes é garantir que as expectativas das partes interessadas (stakeholders) estão a ser satisfeitas. Expectativas essas que correspondem ao comportamento do sistema. A disciplina de Engenharia de Requisitos estuda a melhor forma de capturar, especificar, validar e gerir requisitos. No entanto, os modelos utilizados que expressam os comportamentos, muitas das vezes, não são entendidos por parte dos stakeholders. Com a introdução das metodologias ágeis, que se baseiam no princípio de uma colaboração ativa e contínua dos stakeholders durante o desenvolvimento de software, os pressupostos da disciplina de Engenharia de Requisitos foram questionados e fizeram nascer novas práticas. Uma prática que emergiu foi o Desenvolvimento Orientado ao Comportamento (BDD). Surgiu com a finalidade de dar a capacidade aos stakeholders de expressarem, sob a forma textual, o comportamento que desejam para o seu software, de forma simples e sucinta. No entanto, não existindo restrições nem validações automáticas na escrita dos stakeholders, é criada a possibilidade de introdução de ambiguidade e perda de informação quando a equipa de desenvolvimento utiliza os cenários descritos. Dado este problema, propomos uma abordagem em que os stakeholders consigam especificar cenários comportamentais, de forma cognitiva, com uma representação simples, clara e mais precisa. Criamos duas linguagens, o DomainMap e o BehaviorMap, que estão relacionadas entre si: uma para representar modelos de domínio e outra para representar cenários BDD, respetivamente. Foi executada uma experiência com 15 indivíduos para comparar o esforço cognitivo na compreensão entre cenários BehaviorMap e cenários textuais e os resultados mostraram que o BehaviorMap teve melhor desempenho.
Resumo:
Neste trabalho, são apresentados e discutidos os procedimentos prescritos no Eurocódigo 3, Parte 1-8, para cálculo e dimensionamento de ligações pilar-viga com chapa de extremidade, em estruturas de aço. Em particular, é analisado o método das componentes, que permite determinar a resistência e rigidez rotacional de juntas metálicas, possibilitando a utilização de ligações semi-rígidas, que frequentemente resultam em ligações mais económicas. A metodologia descrita é aplicada em dois exemplos numéricos, tendo-se comparado os valores calculados com os resultados obtidos através de um programa de cálculo automático (Powerconnect) que também se baseia no método das componentes. As análises efetuadas permitem constatar que existem algumas vertentes do programa que podem ser melhoradas. Recorreu-se ainda a um programa de cálculo automático comercial (Sap2000) para comparar os esforços atuantes numa estrutura metálica com ligações rígidas e semi-rígidas, tendo-se concluído que existem diferenças significativas entre as distribuições de esforços obtidas para as duas situações.
Resumo:
As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.
Resumo:
A estimação das provisões para sinistros é de extrema importância na atividade de uma seguradora do ramo Não Vida, porque, por um lado, são necessários recursos suficientes para garantir o pagamento de qualquer sinistro que ocorra e, por outro, o excesso de provisões pode condicionar a rentabilidade da companhia. Assim, faz parte do papel do atuário garantir a adequação destas provisões técnicas. Com esse propósito, é habitualmente utilizado o método determinístico Chain Ladder para a estimação das provisões para sinistros. Contudo, de forma a contornar as limitações desta metodologia, recorre-se a modelos estocásticos, como o modelo proposto por Thomas Mack, uma aplicação dos Modelos Lineares Generalizados, a técnica Bootstrap, entre outros. Dos modelos estocásticos é de salientar um dos mais recentemente estudados, Double Chain Ladder, que está diretamente associado ao método Chain Ladder, trazendo algumas vantagens sobre esse último e possibilitando também a aplicação da técnica Bootstrap e uma simples associação ao método Bornhuetter-Ferguson. O objetivo desta dissertação consiste na aplicação e análise destes modelos na estimação de provisões para sinistros no ramo Não Vida.
Resumo:
Este artigo tem por base um estudo enquadrado no uso de materiais/modelos de ensino da Matemática na década de 60, aquando da implementação do Movimento Matemática Moderna, em Portugal. Para atingir este objectivo definimos três questões: 1) Já havia interesse no uso destes novos métodos de ensino, e consequentemente no uso de materiais diversos que levassem a uma melhor aprendizagem por parte dos alunos, antes da década de 60? 2) De que modo os professores aplicaram e usaram estes métodos/materiais na sua prática docente? E que formação tiveram? 3) Quais os métodos e materiais que os professores utilizavam nas suas aulas? O foco central deste trabalho parte da análise de dois artigos escritos na revista Labor, o primeiro em 1952 e o segundo em 1960, pelo professor António Augusto Lopes1 sobre o uso de materiais no 1º ciclo e o Laboratório de Matemática. Toda a pesquisa deste trabalho focou-se na interpretação de material fornecido pelo professor Lopes (manuscritos, relatórios, livros e fotografias, documentos do Ministério da Educação Nacional), bem como por reflexões e comentários do próprio, registadas na forma de entrevista,2 sobre o que foi o Movimento Matemática Moderna ao nível da prática docente, com recurso a novas metodologias e materiais de ensino. O período que irá ser analisado em termos cronológicos será de 1957 a 1965, isto porque é um período experimental e de mudança. A reunião de 57 da CIEAEM em Madrid é o marco histórico que irá despoletar o interesse da Comissão e de Augusto Lopes para a aplicação dos novos materiais\modelos. Apesar de só em 1965 serem criadas as primeiras turmas piloto para aplicação das metodologias e dos novos materiais\modelos preconizadas pelo MMM.
Resumo:
Anualmente os incêndios florestais causam prejuízos por territórios por todo o mundo. Nas últimas décadas, estudos sobre o comportamento do fogo e avanços em tecnologias SIG, deram origem a modelos matemáticos de previsão e à sua inserção em sistemas informáticos de simulação de comportamento e propagação de fogo. A utilização destes necessita da caracterização das variáveis que determinam o comportamento do fogo: variáveis topográficas, condições meteorológicas e combustível vegetal. A vegetação assume-se como a única variável que pode ser controlada através de medidas de gestão e a mais estudada por todo o mundo. A sua caracterização é geralmente efetuada através de modelos de combustível, que consiste num conjunto de propriedades quantificáveis utilizadas nos modelos de comportamento do fogo. Através da utilização do simulador FARSITE, foi efetuada a simulação de comportamento de fogo em áreas de ocorrência de incêndios florestais localizadas na região do Alentejo Central, Portugal, recorrendo a diversos conjuntos de modelos de combustível para caracterizar a vegetação. Os resultados evidenciam, no geral, um maior rigor dos modelos de combustível customizados na caracterização da vegetação da área de estudo.
Resumo:
A máquina elétrica de relutância comutada (MERC) é, inerentemente, um conversor eletromecânico de velocidade variável, facilmente controlado através dos instantes de excitação e desexcitação do circuito magnético partilhado pelas fases. A sua robustez e simplicidade construtiva (só enrolamentos concentrados no estator), flexibilidade de controlo, bom rendimento numa gama alargada de velocidades, a sua fiabilidade e tolerância a defeitos fazem desta máquina uma opção válida para sistemas de conversão de energia caraterizados por baixas velocidades. A tendência crescente de instalar turbinas eólicas em offshore, para além dos desafios económicos e tecnológicos que levanta, torna a fiabilidade e a tolerância a defeitos, requisitos de vital importância. Neste contexto, a potencial aplicação da MERC a geradores eólicos sem recurso a caixa de velocidades, já que esta penaliza o custo, o volume e a fiabilidade do sistema, serviu de motivação a este trabalho. Nesta dissertação apresentam-se, numa perspetiva comparativa, diferentes paradigmas construtivos da MERC para o funcionamento gerador em regime de baixas velocidades, caraterístico dos aproveitamentos de energias renováveis. Para o efeito, formularam-se leis de escala apropriadas a análises dimensionais de topologias diferenciadas pelas caraterísticas dos circuitos elétrico e magnético e do seu posicionamento relativo. Estes modelos de escala permitiram introduzir constrangimentos físicos e dos materiais que condicionam o projeto da máquina, como a saturação magnética e limites de temperatura. Das análises dimensionais e validação com elementos finitos, elegeu-se uma estrutura magnética modular com caminhos de fluxo curtos que foi comparada com um protótipo de MERC regular, previsto para equipar um gerador eólico. Quando comparadas as duas topologias, assumindo dimensões idênticas, a modular apresentou um significativo ganho de potência específica mantendo bons níveis de rendimento. Pretende-se assim alargar a discussão do projeto das MERC, geralmente confinado a topologias regulares, a um contexto mais abrangente que inclua novos paradigmas construtivos.
Resumo:
Um dos mais graves problemas que se apresentam ao poder público em nossos dias é a manutenção da segurança pública, em especial, graças às mudanças sociais ocorridas após os anos 60 do século passado. Para fazer frente aos novos desafios, houve necessidade de uma mudança de paradigmas nos modelos de gestão policial. O policiamento era caracterizado por patrulhas dispostas de forma aleatória e de forma reativa, atendendo às ocorrências. Contudo, tal forma de atuar não respondia mais às necessidades das comunidades. Era necessário que a polícia se tornasse mais proativa, e dispusesse seus meios de uma forma mais eficiente. Paralelamente aos fenômenos anteriormente comentados, o mundo conheceu um rápido desenvolvimento das tecnologias de informação como um todo. Estes novos sistemas permitiram o desenvolvimento de uma nova capacidade de processamento de informações dos mais diversos tipos, numéricas, de texto, figuras e de localização. Este último tipo de dado, em razão de sua relevância levou a criação dos sistemas de Informação Geográficas (SIG), os quais permitiram um aprofundamento da análise espacial de fenômenos de interesse. Com o avançar das tecnologias disponíveis, foram possíveis análises cada vez mais complexas dos dados, sendo necessária a possibilidade de fusão entre dados de diversas fontes e tipos, incluindo o dado espacial. Este novo tipo de análise, unindo dados geoespaciais com diversos outros tipos de informações deu origem a uma nova modalidade de inteligência: a Geointeligência. Desta forma, tendo em vista que o crime é, por sua própria natureza, um evento espacialmente localizado, é natural que houvesse uma aproximação entre as necessidades de novos modelos de gestão policial, fundamentados principalmente em dados objetivamente analisados e na Geointeligência. Dessa aproximação surgiram diversos modelos de negócios de gestão de policiamento, dentre os quais se destacam o policiamento orientado ao problema (POP) e o policiamento orientado pela inteligência (ILP). Assim, o principal objetivo dessa dissertação é verificar como seu deu tal impacto, bem como, através de exemplos, demonstrar a aplicação prática da Geointeligência em modelos de gestão de policiamento.
Resumo:
Os modelos de comportamento de solos que aplicam a teoria da mecânica dos solos dos estados críticos são uma importante base para a compreensão do comportamento dos solos e uma ferramenta que permite, de uma forma simples, ter em conta aspetos do comportamento que os mo-delos muito básicos não permitem. Neste trabalho compara-se, com recurso aos programas de cálculo geotécnico PLAXIS e CRISP, a utilização de dois modelos - um elástico-perfeitamente plástico (modelo Mohr-Coulomb) e outro baseado nos estados críticos (modelo Cam-Clay Modificado) - na determina-ção das pressões e dos impulsos de terras sobre estruturas de suporte rígidas. Comparam-se também os resultados numéricos com os obtidos com métodos analíticos. Exceto para casos mais complexos (utilizando simultaneamente solo sobreconsolidado e pa-ramento rugoso), os impulsos ativos e passivos obtidos com o modelo Cam-Clay Modificado são se-melhantes aos obtidos com o modelo Mohr-Coulomb e com os métodos analíticos, concluindo-se que o modelo avançado modela satisfatoriamente a rotura do solo. Este modelo apresenta inclusive aspetos interessantes, como o desenvolvimento, em alguns casos em que se utiliza solo sobreconsolidado, de uma resistência de pico, que se evidencia no aparecimento de um impulso de pico. No entanto, na utilização do modelo deve ter-se em atenção alguns aspetos, nomeadamente a forma como se obtém o seu parâmetro de resistência,
Resumo:
Esta tese tem como anexo um vídeo e uma tabela excel estão disponíveis para consulta nesta Biblioteca.
Resumo:
Na presente dissertação estudaram-se diferentes métodos de cálculo usados para a determinação da deformação (curvatura, rotação, extensão e flecha) em vigas de betão armado. Estudou-se o método de cálculo dito “exato”, método de integração numérica, e comparou-se os resultados obtidos por este método com aqueles ditos simplificados, dos quais se dá particular destaque ao método da secção determinante. Apresenta-se também uma análise comparativa de resultados experimentais obtidos em laboratório com os resultados teóricos, obtidos pela aplicação do método de integração numérica. Estudou-se igualmente a influência que certos parâmetros, como é o caso da fendilhação, fluência, retração e resistência à compressão do betão, têm na deformação de vigas de betão armado. O estudo da deformação foi efetuado considerando três tipos de secção: retangular, em T e em I. Por último o autor implementou um programa de cálculo em VBA Excel com o objetivo de quantificar os parâmetros da deformação em vigas de betão armado com secções: retangular, em T e em I, pela aplicação do método de integração numérica, de acordo com a norma EN 1992-1-1.
Resumo:
A argumentação centra-se na história da produção cenográfica da segunda metade do século XIX em Portugal, propondo um tratamento teórico mais abrangente, que desloque o enfoque analítico da peça de arte em si ou do carácter efémero e global da espectacularidade que tem merecido alguma atenção da historiografia contemporânea, para uma escala de cultura visual ou mesmo de visualidade, no sentido mais dilatado destas expressões. Discutindo essencialmente a problemática em torno da imagem teatral como produto do mundo oitocentista analisa-se o potencial cognitivo da série cenográfica na sua capacidade de representação e apropriações ideológicas. Para esta dialéctica concorrem as repercussões epocais do espectáculo, designadamente na regulação da vida social, na mediação de processos económicos, no combate político, e sobretudo, em modelos de percepção artística fundados nos convencionalismos cenográficos como acontece, por exemplo, na produção decorativa e arquitectónica integradas num particular campo visual ou na teatralidade actuante dos edifícios, cuja essência, em todos os casos, é devedora de uma cultura paradoxalmente centrada nos limites da caixa cénica e na infinitude emotiva do espectacular.
Resumo:
Neste trabalho propomos um novo tipo de modelo, que designamos por modelo com aninhamento em escada estruturado. Este modelo tem por base o modelo com aninhamento em escada e, tal como este, apresenta vantagens face ao aninhamento equilibrado. Permite grande economia no número de observações utilizadas e uma distribuição mais uniforme da informação pelos vários factores. Com este novo tipo de modelo podemos construir novos modelos, também em escada, mais complexos do que os existentes até agora. No aninhamento em escada a cada degrau do modelo corresponde um factor. Generalizamos a teoria destes modelos introduzindo a possibilidade de se desagregar cada um dos factores intervenientes, passando os degraus a terem submodelos com estrutura ortogonal. Para estudar o aninhamento em escada estruturado, propomos duas estruturas algébricas que, apesar de diferentes, possibilitam obter os mesmos estimadores dos parâmetros relevantes. Álgebras de Jordan comutativas são utilizadas para exprimir essas estruturas. Usando as matrizes da base principal, das álgebras a que se associam os modelos, a estimação vai ter por base a relação entre as componentes de variância canónicas e as usuais. Para além do aninhamento em escada estruturado, apresentamos também modelos obtidos cruzando vários desses aninhamentos.
Resumo:
Este trabalho tem o objectivo de criar um Editor e Visualizador Web de Formas de Onda para controladores digitais especificados com modelos Redes de Petri Input-Output Place-Transition (IOPT). Após uma análise das ferramentas existentes e constatando-se a inexistência de uma ferramenta adequada a essa função, desenvolveu-se uma ferramenta denominada Wave4IOPT, que permite a visualização das formas de onda de sinais e eventos de entrada e de saída ao longo do tempo. A ferramenta permite também a visualização dos resultados do histórico de uma simulação de uma Rede de Petri IOPT, proveniente do Simulador das IOPT-Tools. Esta ferramenta incorpora funcionalidades de edição, modos de visualização e um módulo básico de identificação e correcção de erros dos valores das formas de onda. O Wave4IOPT está disponível a partir de um browser e prevê-se que venha a estar integrado no ambiente de ferramentas IOPT-Tools. Esta ferramenta foi construída utilizando tecnologias Web como HTML, JavaScript, CSS, SVG e JSON. Adicionalmente, o Wave4IOPT poderá também servir para a edição, visualização e análise de outros tipos de sinais digitais, desde que sejam preenchidos os requisitos da estrutura do ficheiro JSON que será lido pela ferramenta.