93 resultados para Modelos físicos
Resumo:
Neste trabalho, são apresentados e discutidos os procedimentos prescritos no Eurocódigo 3, Parte 1-8, para cálculo e dimensionamento de ligações pilar-viga com chapa de extremidade, em estruturas de aço. Em particular, é analisado o método das componentes, que permite determinar a resistência e rigidez rotacional de juntas metálicas, possibilitando a utilização de ligações semi-rígidas, que frequentemente resultam em ligações mais económicas. A metodologia descrita é aplicada em dois exemplos numéricos, tendo-se comparado os valores calculados com os resultados obtidos através de um programa de cálculo automático (Powerconnect) que também se baseia no método das componentes. As análises efetuadas permitem constatar que existem algumas vertentes do programa que podem ser melhoradas. Recorreu-se ainda a um programa de cálculo automático comercial (Sap2000) para comparar os esforços atuantes numa estrutura metálica com ligações rígidas e semi-rígidas, tendo-se concluído que existem diferenças significativas entre as distribuições de esforços obtidas para as duas situações.
Resumo:
As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.
Resumo:
A estimação das provisões para sinistros é de extrema importância na atividade de uma seguradora do ramo Não Vida, porque, por um lado, são necessários recursos suficientes para garantir o pagamento de qualquer sinistro que ocorra e, por outro, o excesso de provisões pode condicionar a rentabilidade da companhia. Assim, faz parte do papel do atuário garantir a adequação destas provisões técnicas. Com esse propósito, é habitualmente utilizado o método determinístico Chain Ladder para a estimação das provisões para sinistros. Contudo, de forma a contornar as limitações desta metodologia, recorre-se a modelos estocásticos, como o modelo proposto por Thomas Mack, uma aplicação dos Modelos Lineares Generalizados, a técnica Bootstrap, entre outros. Dos modelos estocásticos é de salientar um dos mais recentemente estudados, Double Chain Ladder, que está diretamente associado ao método Chain Ladder, trazendo algumas vantagens sobre esse último e possibilitando também a aplicação da técnica Bootstrap e uma simples associação ao método Bornhuetter-Ferguson. O objetivo desta dissertação consiste na aplicação e análise destes modelos na estimação de provisões para sinistros no ramo Não Vida.
Resumo:
Neste trabalho ensaiam-se abordagens à avaliação da susceptibilidade a movimentos de terreno em contexto urbano, aplicadas ao caso específico da Vertente Sul de Odivelas. Esta dissertação encontra-se no seguimento de um trabalho efectuado pelo Laboratório Nacional de Engenharia Civil no âmbito de um estudo geológico e geotécnico para a consolidação da encosta da Vertente Sul de Odivelas e que contribuiu para a tomada de decisão da Câmara Municipal de Odivelas quanto ao futuro plano urbanístico. A encosta, com cerca de 160 hectares, compreende os bairros de Vale do Forno, Encosta da Luz, Quinta do José Luís e Serra da Luz e a localidade Quinta das Arrombas. Estes bairros pertencem a unidades denominadas Áreas Urbanas de Génese Ilegal e apresentam características que, a diversos níveis, podem contribuir para a desestabilização da vertente e, consequentemente, constituir uma situação de perigo para pessoas e bens. Deste modo procurou-se aplicar duas metodologias determinísticas, uma absoluta (metodologia do programa SHALSTAB) e outra com componente estocástica (adaptação da metodologia do programa SINMAP), que permitissem obter resultados por diversos métodos de natureza quantitativa das áreas susceptíveis a movimentos de terreno, mais especificamente, a escorregamentos translacionais superficiais. Os modelos de base física utilizados permitem a determinação quantitativa da estabilidade das vertentes pela aplicação de métodos de equilíbrio limite, nomeadamente de talude infinito, que simulam os mecanismos físicos que controlam a ocorrência de movimentos de terreno. Para a aplicação destes modelos a informação necessária inclui: as características geotécnicas e hidrogeológicas do terreno (peso volúmico, ângulo de atrito interno e transmissividade do solo) obtidas por consulta bibliográfica e debate com especialistas; o declive, produzido a partir de um modelo digital de terreno da área de estudo; a área de contribuição específica, também produzida a partir do modelo digital de terreno e valores de precipitação diária da região em estudo. O trabalho proposto foi subdividido em três etapas onde, numa primeira fase foram produzidos alguns dados de entrada (declive e bacias de drenagem), em ambiente SIG, a partir do modelo digital de terreno da área de estudo e de seguida reunidos, com os restantes dados de entrada anteriormente referidos, no programa MS Excel. Numa segunda fase foram produzidos diversos mapas de susceptibilidade, de acordo com cada metodologia, fazendo variar valores de peso volúmico, ângulo de atrito, transmissividade e recarga efectiva. Por fim, foram efectuadas diversas comparações entre os resultados por modo a estudar a variabilidade dos dados obtidos com cada técnica de análise e a validar os mapas, uma vez que não existe inventariação de movimentos de terreno. Também é discutida a aplicabilidade dos métodos determinísticos na zona em estudo, com incidência em cada bairro, e a sua viabilidade como ferramenta para estudos de carácter urbanístico.
Resumo:
Hoje em dia a utilização de materiais compósitos por parte das indústrias é cada vez maior porque conseguem satisfazer as exigências actuais de maneira mais eficiente do que os materiais convencionais. Com o fabrico de compósitos pretende-se atingir valores óptimos de parâmetros como a forma, massa, força, durabilidade, rigidez, custos, etc. O processo de furação em materiais compósitos é um processo bastante complexo porque a furação provoca danos no material que podem comprometer as suas ligações. O dano mais importante na furação de materiais compósitos é a delaminação, por esta razão, investigações conduzidas no sentido de a reduzir ou eliminar são essenciais. A espessura dos componentes e o diâmetro dos furos são requisitos dos produtos a fabricar, mas a maioria dos modelos presentes na literatura não contempla a sua variação. Mantendo estes dois factores constantes é possível observar o efeito dos parâmetros de corte e definir os respectivos modelos empíricos, mas ainda não foi concretizado um modelo global que seja fiável do ponto de vista dos aspectos físicos do processo. Neste trabalho estudou-se a influência das variáveis do processo de furação a alta velocidade em compósitos reforçados com fibra de carbono no dano resultante através do método de Taguchi com características dinâmicas, considerando como factores de sinal a espessura do provete e o diâmetro da ferramenta e como factores de controlo as restantes variáveis, velocidade de corte e velocidade de avanço. O propósito da sua utilização foi a análise individual do efeito de cada factor de sinal, para evitar que o seu predomínio no factor de delaminação possa camuflar a influência dos parâmetros de corte. Em relação ao método utilizado, verificou-se não ser possível desacoplar os efeitos dos factores de sinal. Consequentemente, verificou-se que a influência dos parâmetros de corte fica imperceptível face ao efeito da espessura da peça e do diâmetro pretendido, não permitindo encontrar um modelo empírico generalizado. O facto do modelo de Taguchi com características dinâmicas não ser adequado pode ainda indiciar que não é possível generalizar os mecanismos do processo com base nestas variáveis.
Resumo:
Este artigo tem por base um estudo enquadrado no uso de materiais/modelos de ensino da Matemática na década de 60, aquando da implementação do Movimento Matemática Moderna, em Portugal. Para atingir este objectivo definimos três questões: 1) Já havia interesse no uso destes novos métodos de ensino, e consequentemente no uso de materiais diversos que levassem a uma melhor aprendizagem por parte dos alunos, antes da década de 60? 2) De que modo os professores aplicaram e usaram estes métodos/materiais na sua prática docente? E que formação tiveram? 3) Quais os métodos e materiais que os professores utilizavam nas suas aulas? O foco central deste trabalho parte da análise de dois artigos escritos na revista Labor, o primeiro em 1952 e o segundo em 1960, pelo professor António Augusto Lopes1 sobre o uso de materiais no 1º ciclo e o Laboratório de Matemática. Toda a pesquisa deste trabalho focou-se na interpretação de material fornecido pelo professor Lopes (manuscritos, relatórios, livros e fotografias, documentos do Ministério da Educação Nacional), bem como por reflexões e comentários do próprio, registadas na forma de entrevista,2 sobre o que foi o Movimento Matemática Moderna ao nível da prática docente, com recurso a novas metodologias e materiais de ensino. O período que irá ser analisado em termos cronológicos será de 1957 a 1965, isto porque é um período experimental e de mudança. A reunião de 57 da CIEAEM em Madrid é o marco histórico que irá despoletar o interesse da Comissão e de Augusto Lopes para a aplicação dos novos materiais\modelos. Apesar de só em 1965 serem criadas as primeiras turmas piloto para aplicação das metodologias e dos novos materiais\modelos preconizadas pelo MMM.
Resumo:
Anualmente os incêndios florestais causam prejuízos por territórios por todo o mundo. Nas últimas décadas, estudos sobre o comportamento do fogo e avanços em tecnologias SIG, deram origem a modelos matemáticos de previsão e à sua inserção em sistemas informáticos de simulação de comportamento e propagação de fogo. A utilização destes necessita da caracterização das variáveis que determinam o comportamento do fogo: variáveis topográficas, condições meteorológicas e combustível vegetal. A vegetação assume-se como a única variável que pode ser controlada através de medidas de gestão e a mais estudada por todo o mundo. A sua caracterização é geralmente efetuada através de modelos de combustível, que consiste num conjunto de propriedades quantificáveis utilizadas nos modelos de comportamento do fogo. Através da utilização do simulador FARSITE, foi efetuada a simulação de comportamento de fogo em áreas de ocorrência de incêndios florestais localizadas na região do Alentejo Central, Portugal, recorrendo a diversos conjuntos de modelos de combustível para caracterizar a vegetação. Os resultados evidenciam, no geral, um maior rigor dos modelos de combustível customizados na caracterização da vegetação da área de estudo.
Resumo:
A máquina elétrica de relutância comutada (MERC) é, inerentemente, um conversor eletromecânico de velocidade variável, facilmente controlado através dos instantes de excitação e desexcitação do circuito magnético partilhado pelas fases. A sua robustez e simplicidade construtiva (só enrolamentos concentrados no estator), flexibilidade de controlo, bom rendimento numa gama alargada de velocidades, a sua fiabilidade e tolerância a defeitos fazem desta máquina uma opção válida para sistemas de conversão de energia caraterizados por baixas velocidades. A tendência crescente de instalar turbinas eólicas em offshore, para além dos desafios económicos e tecnológicos que levanta, torna a fiabilidade e a tolerância a defeitos, requisitos de vital importância. Neste contexto, a potencial aplicação da MERC a geradores eólicos sem recurso a caixa de velocidades, já que esta penaliza o custo, o volume e a fiabilidade do sistema, serviu de motivação a este trabalho. Nesta dissertação apresentam-se, numa perspetiva comparativa, diferentes paradigmas construtivos da MERC para o funcionamento gerador em regime de baixas velocidades, caraterístico dos aproveitamentos de energias renováveis. Para o efeito, formularam-se leis de escala apropriadas a análises dimensionais de topologias diferenciadas pelas caraterísticas dos circuitos elétrico e magnético e do seu posicionamento relativo. Estes modelos de escala permitiram introduzir constrangimentos físicos e dos materiais que condicionam o projeto da máquina, como a saturação magnética e limites de temperatura. Das análises dimensionais e validação com elementos finitos, elegeu-se uma estrutura magnética modular com caminhos de fluxo curtos que foi comparada com um protótipo de MERC regular, previsto para equipar um gerador eólico. Quando comparadas as duas topologias, assumindo dimensões idênticas, a modular apresentou um significativo ganho de potência específica mantendo bons níveis de rendimento. Pretende-se assim alargar a discussão do projeto das MERC, geralmente confinado a topologias regulares, a um contexto mais abrangente que inclua novos paradigmas construtivos.
Resumo:
As crises alimentares, a par de procedimentos nutricionais deficientes, vêm conferindo prioridade ao desenvolvimento de múltiplos aspetos de segurança e qualidade na indústria alimentar. Acresce ainda que a globalização do comércio também levou à necessidade de criação de padrões de qualidade e segurança alimentar tais como a IFS. Neste enquadramento, o objetivo deste estudo consistiu na análise de perigos físicos não metálicos, no âmbito da implementação da IFS, em unidades de padaria, numa indústria de produtos de panificação e pastelaria pré confecionados e ultracongelados. Inicialmente foi realizado um enquadramento teórico, o estudo do caso – PANICONGELADOS, massas congeladas SA, relativo ao processo produtivo das padarias 2 e 3. Procedeu-se posteriormente à análise dos perigos físicos não metálicos com incidência na avaliação das infraestruturas e equipamentos, revisão do SGSA, das metodologias e procedimentos estabelecidos para a gestão de perigos físicos relativos à produção, limpeza e higienização e manutenção. Com base no reconhecimento da situação apontaram-se as necessidades e oportunidades de melhoria. Definiram-se ainda as prioridades básicas para cumprimento dos requisitos relativos à obtenção da certificação IFS.
Resumo:
A presente dissertação apresenta o estudo de dois carbonizados, provenientes da gasificação (CG) e co-pirólise (CP) de resíduos da cultura e processamento de arroz, no processo de remoção de Cr3+ presente em meio líquido. Os materiais de partida – casca de arroz (CA) e polietileno (PE) – utilizados nos ensaios de gasificação e co-pirólise, e os carbonizados resultantes destes processos térmicos, foram caracterizados através de ensaios físicos, químicos e ecotoxicológicos. O elemento químico com maior concentração, em todos os materiais, foi o Si. Nenhum dos eluatos revelou ecotoxicidade. No estudo de remoção de Cr3+ com os dois carbonizados avaliaram-se os efeitos dos seguintes parâmetros: pH inicial da solução, massa de adsorvente, tempo de contacto e concentração inicial de Cr3+. O carbonizado que teve o melhor desempenho na remoção de Cr3+ foi o CG, com remoções de cerca de 100%, devido ao aumento de pH, que provocou a precipitação do Cr. A capacidade de adsorção deste carbonizado variou entre 12 e 26 mg Cr3+.mg-1 CG, para uma concentração inicial aproximada de Cr3+ de 50 mg.L-1, pH inicial de 5, tempo de contacto de 24 horas e razões L/S entre 800 e 1000 mL. g-1. Foram aplicados os modelos cinéticos de pseudo-primeira ordem e pseudo-segunda ordem, e as isotérmicas de Langmuir, Freundlich e Sips. Observou-se um melhor ajustamento da cinética de pseudo-segunda ordem para CG. No CP verificou-se que ambos os modelos cinéticos se ajustavam aos dados experimentais. No CG observou-se que as isotérmicas de Freundlich e Sips apresentaram os melhores ajustamentos. Foi realizado um estudo dos mecanismos de adsorção para o CG e verificou-se que a troca iónica foi o fenómeno predominante. A avaliação ecotoxicológica das soluções contendo Cr, antes e após o ensaio de adsorção, indicou que o CG promoveu uma redução acentuada da ecotoxicidade das soluções até um nível não detetável.
Resumo:
Um dos mais graves problemas que se apresentam ao poder público em nossos dias é a manutenção da segurança pública, em especial, graças às mudanças sociais ocorridas após os anos 60 do século passado. Para fazer frente aos novos desafios, houve necessidade de uma mudança de paradigmas nos modelos de gestão policial. O policiamento era caracterizado por patrulhas dispostas de forma aleatória e de forma reativa, atendendo às ocorrências. Contudo, tal forma de atuar não respondia mais às necessidades das comunidades. Era necessário que a polícia se tornasse mais proativa, e dispusesse seus meios de uma forma mais eficiente. Paralelamente aos fenômenos anteriormente comentados, o mundo conheceu um rápido desenvolvimento das tecnologias de informação como um todo. Estes novos sistemas permitiram o desenvolvimento de uma nova capacidade de processamento de informações dos mais diversos tipos, numéricas, de texto, figuras e de localização. Este último tipo de dado, em razão de sua relevância levou a criação dos sistemas de Informação Geográficas (SIG), os quais permitiram um aprofundamento da análise espacial de fenômenos de interesse. Com o avançar das tecnologias disponíveis, foram possíveis análises cada vez mais complexas dos dados, sendo necessária a possibilidade de fusão entre dados de diversas fontes e tipos, incluindo o dado espacial. Este novo tipo de análise, unindo dados geoespaciais com diversos outros tipos de informações deu origem a uma nova modalidade de inteligência: a Geointeligência. Desta forma, tendo em vista que o crime é, por sua própria natureza, um evento espacialmente localizado, é natural que houvesse uma aproximação entre as necessidades de novos modelos de gestão policial, fundamentados principalmente em dados objetivamente analisados e na Geointeligência. Dessa aproximação surgiram diversos modelos de negócios de gestão de policiamento, dentre os quais se destacam o policiamento orientado ao problema (POP) e o policiamento orientado pela inteligência (ILP). Assim, o principal objetivo dessa dissertação é verificar como seu deu tal impacto, bem como, através de exemplos, demonstrar a aplicação prática da Geointeligência em modelos de gestão de policiamento.
Resumo:
Os modelos de comportamento de solos que aplicam a teoria da mecânica dos solos dos estados críticos são uma importante base para a compreensão do comportamento dos solos e uma ferramenta que permite, de uma forma simples, ter em conta aspetos do comportamento que os mo-delos muito básicos não permitem. Neste trabalho compara-se, com recurso aos programas de cálculo geotécnico PLAXIS e CRISP, a utilização de dois modelos - um elástico-perfeitamente plástico (modelo Mohr-Coulomb) e outro baseado nos estados críticos (modelo Cam-Clay Modificado) - na determina-ção das pressões e dos impulsos de terras sobre estruturas de suporte rígidas. Comparam-se também os resultados numéricos com os obtidos com métodos analíticos. Exceto para casos mais complexos (utilizando simultaneamente solo sobreconsolidado e pa-ramento rugoso), os impulsos ativos e passivos obtidos com o modelo Cam-Clay Modificado são se-melhantes aos obtidos com o modelo Mohr-Coulomb e com os métodos analíticos, concluindo-se que o modelo avançado modela satisfatoriamente a rotura do solo. Este modelo apresenta inclusive aspetos interessantes, como o desenvolvimento, em alguns casos em que se utiliza solo sobreconsolidado, de uma resistência de pico, que se evidencia no aparecimento de um impulso de pico. No entanto, na utilização do modelo deve ter-se em atenção alguns aspetos, nomeadamente a forma como se obtém o seu parâmetro de resistência,
Resumo:
Esta tese tem como anexo um vídeo e uma tabela excel estão disponíveis para consulta nesta Biblioteca.
Resumo:
Na presente dissertação estudaram-se diferentes métodos de cálculo usados para a determinação da deformação (curvatura, rotação, extensão e flecha) em vigas de betão armado. Estudou-se o método de cálculo dito “exato”, método de integração numérica, e comparou-se os resultados obtidos por este método com aqueles ditos simplificados, dos quais se dá particular destaque ao método da secção determinante. Apresenta-se também uma análise comparativa de resultados experimentais obtidos em laboratório com os resultados teóricos, obtidos pela aplicação do método de integração numérica. Estudou-se igualmente a influência que certos parâmetros, como é o caso da fendilhação, fluência, retração e resistência à compressão do betão, têm na deformação de vigas de betão armado. O estudo da deformação foi efetuado considerando três tipos de secção: retangular, em T e em I. Por último o autor implementou um programa de cálculo em VBA Excel com o objetivo de quantificar os parâmetros da deformação em vigas de betão armado com secções: retangular, em T e em I, pela aplicação do método de integração numérica, de acordo com a norma EN 1992-1-1.
Resumo:
Neste trabalho propomos um novo tipo de modelo, que designamos por modelo com aninhamento em escada estruturado. Este modelo tem por base o modelo com aninhamento em escada e, tal como este, apresenta vantagens face ao aninhamento equilibrado. Permite grande economia no número de observações utilizadas e uma distribuição mais uniforme da informação pelos vários factores. Com este novo tipo de modelo podemos construir novos modelos, também em escada, mais complexos do que os existentes até agora. No aninhamento em escada a cada degrau do modelo corresponde um factor. Generalizamos a teoria destes modelos introduzindo a possibilidade de se desagregar cada um dos factores intervenientes, passando os degraus a terem submodelos com estrutura ortogonal. Para estudar o aninhamento em escada estruturado, propomos duas estruturas algébricas que, apesar de diferentes, possibilitam obter os mesmos estimadores dos parâmetros relevantes. Álgebras de Jordan comutativas são utilizadas para exprimir essas estruturas. Usando as matrizes da base principal, das álgebras a que se associam os modelos, a estimação vai ter por base a relação entre as componentes de variância canónicas e as usuais. Para além do aninhamento em escada estruturado, apresentamos também modelos obtidos cruzando vários desses aninhamentos.