58 resultados para Elasticidade (Economia) - Modelos econométricos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As vias de comunicação são indispensáveis para o desenvolvimento de uma nação, económica e socialmente. Num mundo globalizado, onde tudo deve chegar ao seu destino no menor espaço de tempo, as vias de comunicação assumem um papel vital. Assim, torna-se essencial construir e manter uma rede de transportes eficiente. Apesar de não ser o método mais eficiente, o transporte rodoviário é muitas vezes o mais económico e possibilita o transporte porta-a-porta, sendo em muitos casos o único meio de transporte possível. Por estas razões, o modo rodoviário tem uma quota significativa no mercado dos transportes, seja de passageiros ou mercadorias, tornando-o extremamente importante na rede de transportes de um país. Os países europeus fizeram um grande investimento na criação de extensas redes de estradas, cobrindo quase todo o seu território. Neste momento, começa-se a atingir o ponto onde a principal preocu+ação das entidades gestoras de estradas deixa de ser a construção de novas vias, passando a focar-se na necessidade de manutenção e conservação das vias existentes. Os pavimentos rodoviários, como todas as outras construções, requerem manutenção de forma a garantir bons níveis de serviço com qualidade, conforto e segurança. Devido aos custos inerentes às operações de manutenção de pavimentos, estas devem rigorosamente e com base em critérios científicos bem definidos. Assim, pretende-se evitar intervenções desnecessárias, mas também impedir que os danos se tornem irreparáveis e economicamente prejudiciais, com repercussões na segurança dos utilizadores. Para se estimar a vida útil de um pavimento é essencial realizar primeiro a caracterização estrutural do mesmo. Para isso, torna-se necessário conhecer o tipo de estrutura de um pavimento, nomeadamente a espessura e o módulo de elasticidade constituintes. A utilização de métodos de ensaio não destrutivos é cada vez mais reconhecida como uma forma eficaz para obter informações sobre o comportamento estrutural de pavimentos. Para efectuar estes ensaios, existem vários equipamentos. No entanto, dois deles, o Deflectómetro de Impacto e o Radar de Prospecção, têm demonstrado ser particularmente eficientes para avaliação da capacidade de carga de um pavimento, sendo estes equipamentos utilizados no âmbito deste estudo. Assim, para realização de ensaios de carga em pavimentos, o equipamento Deflectómetro de Impacto tem sido utilizado com sucesso para medir as deflexões à superfície de um pavimento em pontos pré-determinados quando sujeito a uma carga normalizada de forma a simular o efeito da passagem da roda de um camião. Complementarmente, para a obtenção de informações contínuas sobre a estrutura de um pavimento, o equipamento Radar de Prospecção permite conhecer o número de camadas e as suas espessuras através da utilização de ondas electromagnéticas. Os dados proporcionam, quando usados em conjunto com a realização de sondagens à rotação e poços em alguns locais, permitem uma caracterização mais precisa da condição estrutural de um pavimento e o estabelecimento de modelos de resposta, no caso de pavimentos existentes. Por outro lado, o processamento dos dados obtidos durante os ensaios “in situ” revela-se uma tarefa morosa e complexa. Actualmente, utilizando as espessuras das camadas do pavimento, os módulos de elasticidade das camadas são calculados através da “retro-análise” da bacia de deflexões medida nos ensaios de carga. Este método é iterativo, sendo que um engenheiro experiente testa várias estruturas diferentes de pavimento, até se obter uma estrutura cuja resposta seja o mais próximo possível da obtida durante os ensaios “in Situ”. Esta tarefa revela-se muito dependente da experiência do engenheiro, uma vez que as estruturas de pavimento a serem testadas maioritariamente do seu raciocínio. Outra desvantagem deste método é o facto de apresentar soluções múltiplas, dado que diferentes estruturas podem apresentar modelos de resposta iguais. A solução aceite é, muitas vezes, a que se julga mais provável, baseando-se novamente no raciocínio e experiência do engenheiro. A solução para o problema da enorme quantidade de dados a processar e das múltiplas soluções possíveis poderá ser a utilização de Redes Neuronais Artificiais (RNA) para auxiliar esta tarefa. As redes neuronais são elementos computacionais virtuais, cujo funcionamento é inspirado na forma como os sistemas nervosos biológicos, como o cérebro, processam a informação. Estes elementos são compostos por uma série de camadas, que por sua vez são compostas por neurónios. Durante a transmissão da informação entre neurónios, esta é modificada pela aplicação de um coeficiente, denominado “peso”. As redes neuronais apresentam uma habilidade muito útil, uma vez que são capazes de mapear uma função sem conhecer a sua fórmula matemática. Esta habilidade é utilizada em vários campos científicos como o reconhecimento de padrões, classificação ou compactação de dados. De forma a possibilitar o uso desta característica, a rede deverá ser devidamente “treinada” antes, processo realizado através da introdução de dois conjuntos de dados: os valores de entrada e os valores de saída pretendidos. Através de um processo cíclico de propagação da informação através das ligações entre neurónios, as redes ajustam-se gradualmente, apresentando melhores resultados. Apesar de existirem vários tipos de redes, as que aparentam ser as mais aptas para esta tarefa são as redes de retro-propagação. Estas possuem uma característica importante, nomeadamente o treino denominado “treino supervisionado”. Devido a este método de treino, as redes funcionam dentro da gama de variação dos dados fornecidos para o “treino” e, consequentemente, os resultados calculados também se encontram dentro da mesma gama, impedindo o aparecimento de soluções matemáticas com impossibilidade prática. De forma a tornar esta tarefa ainda mais simples, foi desenvolvido um programa de computador, NNPav, utilizando as RNA como parte integrante do seu processo de cálculo. O objectivo é tornar o processo de “retro-análise” totalmente automático e prevenir erros induzidos pela falta de experiência do utilizador. De forma a expandir ainda mais as funcionalidades do programa, foi implementado um processo de cálculo que realiza uma estimativa da capacidade de carga e da vida útil restante do pavimento, recorrendo a dois critérios de ruína. Estes critérios são normalmente utilizados no dimensionamento de pavimentos, de forma a prevenir o fendilhamento por fadiga e as deformações permanentes. Desta forma, o programa criado permite a estimativa da vida útil restante de um pavimento de forma eficiente, directamente a partir das deflexões e espessuras das camadas, medidas nos ensaios “in situ”. Todos os passos da caracterização estrutural do pavimento são efectuados pelo NNPav, seja recorrendo à utilização de redes neuronais ou a processos de cálculo matemático, incluindo a correcção do módulo de elasticidade da camada de misturas betuminosas para a temperatura de projecto e considerando as características de tráfego e taxas de crescimento do mesmo. Os testes efectuados às redes neuronais revelaram que foram alcançados resultados satisfatórios. Os níveis de erros na utilização de redes neuronais são semelhantes aos obtidos usando modelos de camadas linear-elásticas, excepto para o cálculo da vida útil com base num dos critérios, onde os erros obtidos foram mais altos. No entanto, este processo revela-se bastante mais rápido e possibilita o processamento dos dados por pessoal com menos experiência. Ao mesmo tempo, foi assegurado que nos ficheiros de resultados é possível analisar todos os dados calculados pelo programa, em várias fases de processamento de forma a permitir a análise detalhada dos mesmos. A possibilidade de estimar a capacidade de carga e a vida útil restante de um pavimento, contempladas no programa desenvolvido, representam também ferramentas importantes. Basicamente, o NNPav permite uma análise estrutural completa de um pavimento, estimando a sua vida útil com base nos ensaios de campo realizados pelo Deflectómetro de Impacto e pelo Radar de Prospecção, num único passo. Complementarmente, foi ainda desenvolvido e implementado no NNPav um módulo destinado ao dimensionamento de pavimentos novos. Este módulo permite que, dado um conjunto de estruturas de pavimento possíveis, seja estimada a capacidade de carga e a vida útil daquele pavimento. Este facto permite a análise de uma grande quantidade de estruturas de pavimento, e a fácil comparação dos resultados no ficheiro exportado. Apesar dos resultados obtidos neste trabalho serem bastante satisfatórios, os desenvolvimentos futuros na aplicação de Redes Neuronais na avaliação de pavimentos são ainda mais promissores. Uma vez que este trabalho foi limitado a uma moldura temporal inerente a um trabalho académico, a possibilidade de melhorar ainda mais a resposta das RNA fica em aberto. Apesar dos vários testes realizados às redes, de forma a obter as arquitecturas que apresentassem melhores resultados, as arquitecturas possíveis são virtualmente ilimitadas e pode ser uma área a aprofundar. As funcionalidades implementadas no programa foram as possíveis, dentro da moldura temporal referida, mas existem muitas funcionalidades a serem adicinadas ou expandidas, aumentando a funcionalidade do programa e a sua produtividade. Uma vez que esta é uma ferramenta que pode ser aplicada ao nível de gestão de redes rodoviárias, seria necessário estudar e desenvolver redes similares de forma a avaliar outros tipos de estruturas de pavimentos. Como conclusão final, apesar dos vários aspectos que podem, e devem ser melhorados, o programa desenvolvido provou ser uma ferramenta bastante útil e eficiente na avaliação estrutural de pavimentos com base em métodos de ensaio não destrutivos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é efectuado, não só o diagnóstico em regime permanente, mas também o estudo, simulação e análise do comportamento dinâmico da rede eléctrica da ilha de São Vicente em Cabo Verde. Os estudos de estabilidade transitória desempenham um importante papel, tanto no planeamento como na operação dos sistemas de potência. Tais estudos são realizados, em grande parte, através de simulação digital no domínio do tempo, utilizando integração numérica para resolver as equações não-lineares que modelam a dinâmica do sistema e dependem da existência de registos reais de perturbação (ex: osciloperturbografia). O objectivo do trabalho será também verificar a aplicabilidade dos requisitos técnicos que as unidades geradoras devem ter, no que concerne ao controlo de tensão, estabelecidos na futura regulamentação europeia desenvolvida pela ENTSO-E (European Network Transmission System Operator for Electricity). De entre os requisitos analisou-se a capacidade das máquinas existentes suportarem cavas de tensão decorrentes de curto-circuitos trifásicos simétricos, Fault Ride Through, no ponto de ligação à rede. Identificaram-se para o efeito os factores que influenciam a estabilidade desta rede, em regime perturbado nomeadamente: (i) duração do defeito, (ii) caracterização da carga, com e sem a presença do sistema de controlo de tensão (AVR) em unidades de geração síncronas. Na ausência de registos reais sobre o comportamento do sistema, conclui-se que este é sensível à elasticidade das cargas em particular do tipo potência constante, existindo risco de perda de estabilidade, neste caso, para defeitos superiores a 5ms sem AVR. A existência de AVR nesta rede afigura-se como indispensável para garantir estabilidade de tensão sendo contudo necessário proceder a uma correcta parametrização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A adequada previsão do comportamento diferido do betão, designadamente da retracção, é essencial no projecto de uma obra de grandes dimensões, permitindo conceber, dimensionar e adoptar as disposições construtivas para um comportamento estrutural que satisfaça os requisitos de segurança, utilização e durabilidade. O actual momento é marcado por uma transição em termos da regulamentação de estruturas, com a eminente substituição da regulamentação nacional por regulamentação europeia. No caso das estruturas de betão, o Regulamento de Estruturas de Betão Armado e Pré-Esforçado (REBAP), em vigor desde 1983, será substituído pelo Eurocódigo 2. Paralelamente, a Federation International du Betón publicou o Model Code 2010 (MC2010), um documento que certamente terá forte influência na evolução da regulamentação das estruturas de betão. Neste contexto, o presente trabalho tem como objectivo estabelecer uma comparação entre os diferentes modelos de previsão da retracção incluídos nos documentos normativos referidos, identificando as principais diferenças e semelhanças entre eles e quantificando a influência dos diferentes factores considerados na sua formulação, de forma a avaliar o impacto que a introdução destes modelos de previsão irá ter no projecto de estruturas de betão. Com o propósito de aferir a forma como estes modelos reflectem a realidade do fenómeno em estudo, procedeu-se à aplicação destes modelos de previsão ao betão de duas obras cujo comportamento estrutural é observado pelo LNEC, concretamente a ponte Miguel Torga, sobre o rio Douro, na Régua, e a ponte sobre o rio Angueira, no distrito de Bragança. Em ambas as obras tinha sido efectuada a caracterização in situ da retracção, tendo-se comparado os valores experimentais assim obtidos com os valores provenientes da aplicação dos modelos de previsão considerados neste trabalho. Finalmente são apresentadas algumas conclusões obtidas com o trabalho desenvolvido nesta dissertação, bem como algumas sugestões para desenvolvimentos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação constitui uma proposta de desenvolvimento e melhoria dos modelos de valorização da depreciação física no domínio da avaliação de imóveis. Com o mercado imobiliário a atravessar um período de quebras significativas, são exigidas melhorias e desenvolvimentos na análise das perdas de valor respeitantes às características físicas dos imóveis, nomeadamente ao nível do rigor e transparência. Para tal, nesta dissertação são analisados os métodos tradicionais de avaliação de imóveis e os modelos contabilísticos de valoração da depreciação física, afim de constatar sobre que pontos devem incidir as propostas de desenvolvimento e melhoria. À apresentada uma proposta que visa essencialmente trazer rigor à forma como actualmente são depreciados fisicamente os imóveis, associando o processo que permite valorar essa depreciação à consideração de estruturas de custo de contrução. A associação que é feita tem por objectivo tornar esta actividade não tanto dependente da experiência de quem pratica mas sim baseada em análises mais concretas, rigorosas e bem definidas, conferindo-lhe assim condições para que se torne mais acessível o seu estudo. A proposta é aplicada a dois casos de estudo que permitem retirar conclusões sobre os erros que actualmente são cometidos nesta matéria e as possibilidades de desenvolvimento pela via considerada. Como consequência desses erros surgem informações desviadas da realidade que podem inclusivamente resultar em perdas significativas para os utilizadores da informação. Do trabalho desenvolvido obtêm-se resultados que demonstram a falta de rigor com que actualmente é valorada a depreciação física dos imóveis, nomeadamente com base na comparação entre a metodologia actual e a proposta nesta dissertação e também através da constatação de que na maior parte dos casos não são tidos em conta os aspectos mais significativos para a valoração da depreciação física - as características físicas intrínsecas. Os desenvolvimentos deste tema são de significativo interesse para o mercado imobiliário, uma vez que através deles se diminuem os desvios existentes na valorização de activos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os grandes desenvolvimentos da última década nas tecnologias de informação e de comunicação alteraram por completo os fluxos de informação, assim como a noção de tempo e de espaço. O aparecimento da Internet, do correio electrónico e das novas linguagens informáticas contribuíram para a democratização do relatório financeiro electrónico. Neste trabalho é abordado o impacto nas organizações da revolução das tecnologias de informação e da Era da Informação em que vivemos. A Internet está a alterar a política informativa das empresas em todo o mundo. Praticamente em todos os países desenvolvidos as empresas estão a utilizar, em maior ou menor escala, a Internet como meio de divulgação universal da sua informação financeira. A interactividade que permite este meio de comunicação, as ferramentas multimédia que facilitam a sua compreensão, o seu processamento e a sua distribuição, para além da facilidade no acesso de um volume de informação, até agora impensável e a um custo reduzido, são algumas das suas principais vantagens. Por último, é apresentado um estudo empírico com o objectivo de analisar a situação actual do relato financeiro via Internet em Portugal, investigando a tendência das 250 empresas portuguesas, mais rentáveis, no que se refere à organização e à informação financeira divulgada nos seus websites.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objectivo desta dissertação é a verificação da segurança de barragens gravidade. A verificação da segurança de estruturas pode ser efectuada recorrendo a diversas metodologias quer experimentais quer numéricas. Com este trabalho, procurou-se utilizar uma metodologia, baseada em métodos numéricos, específica e já devidamente testada no dimensionamento de barragens, mas de difícil acesso à grande maioria da comunidade técnico científico (Método dos Elementos Discretos), como forma de validação de uma metodologia mais corrente e de mais fácil acesso (Método dos Elementos Finitos). Como introdução ao tema é feita uma abordagem geral às barragens, diferenciando os vários tipos existentes. São apresentados os conceitos fundamentais da mecânica dos sólidos, e o comportamento estrutural de barragens, tal como os princípios de segurança a ter em conta num projecto de barragens de betão. Com base na descrição dos modelos de controlo de segurança de barragens gravidade efectuada, foram desenvolvidos dois modelos numéricos baseados em cada uma das metodologias de análise escolhida. Os modelos foram efectuados para um perfil típico de uma barragem gravidade de betão. Os métodos numéricos são desenvolvidos nos programas de cálculo SAP2000 e no 3DEC respectivamente para o Método dos Elementos Finitos e o Método dos Elementos Discretos. É feita a análise da estrutura através das duas metodologias, com base nos resultados em termos de deslocamentos, deformadas e tensões para as acções e combinações consideradas. Em face dos resultados numéricos são retiradas as conclusões elucidativas, sobre as metodologias mais correctas que deverão ser implementadas na verificação da segurança de barragens gravidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A contabilidade financeira tradicional está perdendo relevância frente a nova economia. O valor contábil das empresas se distanciam cada vez mais do seu valor de mercado, principalmente nas organizações de alta tecnologia e serviços. Perante essa conjuntura, surge a polêmica, defendida por alguns pesquisadores, de que as demonstrações contábeis não estão mais retratando o verdadeiro valor da empresa, uma vez que o valor dos livros das empresas estão muito aquém do seu corresponente valor de mercado (Lev, 2003, p. 21-24). Esta diferença vem sendo explicada, por uma infinidade de autores como: Capital Intelectual o Ativo Intangível. Diante do que foi exposto, inegavelmente os intangíveis, nos últimos anos, ganharam mais importância para as organizações. O desafio, portanto, consiste em identificar, medir, gerir e informar o capital intelectual. Este artigo tem a finalidade de verificar, através do estudo empírico, qual a relação existente entre os modelos de capital intelectual propostos na literatura, e analisados neste trabalho, com os informes divulgados pelos bancos espanhóis. Para isto, em primeiro lugar tratamos de definir o termo Capital Intelectual (CI); em seguida apresentaremos algumas agrupações existentes de modelos de CI, para assim podermos selecionar os mais apropriados para a informação externa (reporting). Em um terceiro momento analisamos a divulgação de informes das Contas Anuais destas instituições. Por fim evidenciamos as conclusões a que chegamos, onde podemos observar que há um distanciamento entre os modelos utilizados na prática pelos bancos e os modelos teóricos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Radiações Aplicadas às Tecnologias da Saúde. Área de especialização: Protecção contra Radiações

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pretende-se, utilizando o Modelo da Elasticidade Linear em freeFEM++, determinar os esforços e deslocamentos de um edifício alto submetido apenas à acção do peso próprio da estrutura e, efectuar estudos comparativos dos resultados obtidos com o SAP2000. O trabalho inicia-se com a introdução da teoria da elasticidade linear, onde são feitas as deduções das Equações de Compatibilidade, Equilíbrio e as Leis Constitutivas, de modo a resolver numericamente o problema de Elasticidade Linear mencionado. O método de elementos finitos será implementado em freeFEM++ com auxílio do GMSH que é uma poderosa ferramenta com capacidade de gerar automaticamente malhas tridimensionais de elementos finitos e com relativa facilidade de pré e pós-processamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação analisa o conceito da acessibilidade e como ela pode ser implementada no planeamento de transporte. O principal objectivo deste trabalho é o estudo das acessibilidades rodoviárias regionais em Moçambique, através da utilização de um Sistema de Informação Geográfica (SIG). Acessibilidade refere-se à capacidade para alcançar bens e serviços, bem como actividades. Existem muitos factores que afectam a acessibilidade, incluindo a mobilidade (movimento físico), a qualidade da acessibilidade, as opções de transporte, a conectividade do sistema de transporte e os padrões de uso dos solos e de localização das próprias actividades. A acessibilidade pode ser avaliada sob várias perspectivas, como por exemplo tendo em conta o modo, a localização ou a actividade; hoje em dia, muitas vezes o planeamento convencional tende a esquecer e a depreciar alguns desses factores e perspectivas. Deste modo, uma análise mais abrangente da acessibilidade no planeamento alarga o âmbito das possíveis soluções para os problemas de transporte. Moçambique é um país com grande potencial de desenvolvimento a nível socioeconómico, nos anos vindouros. Para salvaguardar esse potencial de desenvolvimento necessita de garantir acessibilidades adequadas, com níveis de qualidade ajustados a esse desenvolvimento futuro. Para a realização das Análises de Acessibilidades, construiu – se um Modelo da Rede Rodoviária de Moçambique, que passou por muitas fases desde acertos na Topologia da Rede bem como a sua correcta calibração. As análises de acessibilidade efectuadas e as respectivas apresentações de resultados foram desenvolvidas com base num Sistema de Informação Geográfica (SIG). Para a elaboração das análises utilizou – se a população e o PIB. Com base nisto, foi possível determinar alguns Indicadores de Acessibilidade tais como: a Velocidade Equivalente Recta (VER), Indicador de Sinuosidade, Indicador de Gutierrez, e entre outros. Nos dias em que vivemos, ter uma acessibilidade geográfica aos serviços é importante. Por exemplo, ter uma escola ou um mercado próximos é um indício de uma adequada qualidade de vida, a qual pode ter sido baseada num adequado planeamento, de modo a proporcionar uma boa acessibilidade aos vários serviços. O modelo de Rede criado poderá eventualmente ser muito útil a longo prazo, pois contribuirá como uma base de apoio à decisão para a análise de alternativas de investimento rodoviário em função de objectivos associados a melhoria de acessibilidade. No entanto, este foi um dos valores cruciais do modelo criado, que infelizmente não foi possível desenvolver e explorar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os testes acelerados de vida são realizados com o objectivo de estimar determinados parâmetros fiabilísticos, referentes a um determinado tipo de bem, despoletando a ocorrência de um dado modo de falha específico, num período de tempo mais reduzido do que aquele em que, em condições de normal operação se verificaria. Torna-se assim possível, através da utilização dos testes acelerados de vida e dos modelos matemáticos de extrapolação de dados, prever a ocorrência de falhas e dos seus modos, permitindo assim realizar alterações aos projectos em estudo, antes mesmo de estes serem disponibilizados no mercado. O emprego deste tipo de metodologia possibilita às organizações uma economia de tempo na determinação dos dados de vida dos bens, o que se reflecte numa grande vantagem face aos testes realizados para normais condições de operação. No presente documento é feita uma abordagem muito objectiva dos conceitos de fiabilidade de modo a poder perceber os conceitos teóricos em que assentam as metodologias relacionadas com os testes acelerados de vida, bem como o estudo e análise das teorias que servem por base aos testes acelerados. No presente documento são analisados os modelos matemáticos de extrapolação de dados dos testes acelerados de vida, tais como o modelo de Arrhenius, o modelo de Eyring, o modelo da Lei da Potência Inversa e o modelo de Bazovsky. Para uma melhor compreensão dos conceitos é feita uma análise às distribuições mais utilizadas em fiabilidade, caso da distribuição de Weibull, da distribuição Normal e da distribuição Lognormal. Para implementar os conceitos e metodologias estudadas, obtiveram-se dados referentes a testes acelerados de vida de um óleo isolante de um transformador eléctrico, implementou-se a metodologia relacionada com o modelo da Lei da Potência Inversa através do software ALTA 8 e determinaram-se os parâmetros fiabilísticos correspondentes. De outro modo, foi ainda utilizado um método detalhado de resolução, utilizando o software Weibull++ 8, para posterior comparação de resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o presente trabalho pretende-se estudar e compreender o comportamento dinâmico de estruturas de engenharia civil, de forma a permitir a elaboração de algumas metodologias para o estudo e análise de problemas de dinâmica de estruturas. Apresenta-se uma revisão dos principais fundamentos da modelação matemática do comportamento dinâmico, com o estudo de sistemas de 1 grau de liberdade e posterior generalização para sistemas de múltiplos graus de liberdade. Apresentam-se também as formulações para análises de identificação modal no domínio do tempo e no domínio da frequência. Atendendo que a resolução do problema dinâmico deve cumprir duas etapas: integração no Espaço, e integração no tempo. Para a 1a etapa abordam-se os fundamentos dos métodos numéricos de integração no espaço (em particular, o método dos elementos finitos) com vista á implementação da sua formulação na ferramenta computacional freeFEM++. Para a 2a etapa abordam-se os métodos numéricos de integração no domínio do tempo (em particular, o método de Newmark), de forma a determinar a resposta de uma estrutura quando submetida a acções dinâmicas. Adicionalmente são introduzidos alguns conceitos essenciais ao estudo de resultados experimentais obtidos através da realização de ensaios de vibrações. Por último, estuda-se um modelo físico de um edifício de dois pisos, com base na análise de resultados de um ensaio de vibração ambiental e no desenvolvimento de dois modelos numéricos (em freeFEM++ e em SAP2000) para comparação e análise dos resultados obtidos e validação da ferramenta computacional desenvolvida. Após a calibração dos modelos numéricos aos resultados obtidos experimentalmente, procede-se a uma análise dinâmica dos modelos numéricos sujeitos a uma acção sísmica, com a posterior comparação e análise de resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com este trabalho pretendeu-se abordar duas fases distintas e complexas de uma megaestrutura do calibre de uma obra de arte especial, como pode ser considerado o objeto de estudo do trabalho, a fase de projeto e a fase de construção. Percebe-se, por intermédio deste trabalho, a importância da utilização de modelos numéricos, com recurso aos mais sofisticados programas de modelação tridimensional, onde é imprescindível a modelação tomando em consideração os efeitos das fases construtivas. Os fenómenos físicos como a fluência e retração são de consideração imperativa, tal como a influência das sobrecargas de serviço, como é o caso das sobrecargas regulamentares que já incluem os seus efeitos dinâmicos. Realizou-se um modelo longitudinal de elementos finitos de barra, utilizando os programas GP2004 e RM2004, para a análise da fase construtiva, da fase de entrada em serviço e a longo prazo, considerando-se os 8000 dias como sendo a fase em que a obra se encontra estabilizada em termos de redistribuição de tensões. Deste modelo foi possível obter as envolventes de esforços e de tensões e os deslocamentos em todos os elementos, cruciais para o dimensionamento dos vários elementos constituintes da obra, tais como tabuleiros, pilares, fundações, juntas de dilatação, aparelhos de apoio e sistemas de equilíbrio. Neste caso concreto, e por questões de economia de espaço, é apresentado o dimensionamento do tabuleiro da ponte, para as fases acima referidas e para a situação de estados limites últimos de resistência à flexão composta (secção 6.1 de EC2) e de resistência ao esforço transverso (secção 6.2 do EC2) e aos momentos torsores (secção 6.3 do EC2); e estados limites de serviço, nomeadamente para a abertura de fendas e para a descompressão. Deste modelo, comprovou-se que para as ações consideradas, a armadura longitudinal principal, armadura transversal das almas e armadura de suspensão da laje de fundo, cumprem as suas funções resistentes, em termos de momentos fletores, de esforços transversos máximos com momentos torsores associados e de momentos torsores máximos com esforços transversos associados. Desenvolveu-se e analisou-se, também, um modelo transversal em elementos finitos de placa para o estudo e dimensionamento da secção em caixão do tabuleiro da ponte, modelado numa primeira fase no programa CSI Bridge e posteriormente exportado para o programa SAP2000, onde foram introduzidas as ações atuantes. A análise foi efetuada para as secções de apoio e para a secção a meio vão, no entanto, apresenta-se apenas o dimensionamento da secção de meio vão. Deste modelo obtém-se a armadura transversal necessária para suprir as necessidades em termos de esforços nas zonas de encastramento transversal das lajes e consolas, nas zonas de variação de espessura e zonas centrais da laje. Obtém-se ainda a armadura longitudinal secundária para as zonas das lajes e consolas. Adquiriu-se e desenvolveu-se competências ao nível de dimensionamento de estruturas de betão armado utilizando as normativas europeias, nomeadamente o Eurocódigo 0 na definição das combinações a considerar para os diversos estados limite, o Eurocódigo 1 para a adoção das ações relevantes para o estudo da obra em questão e o Eurocódigo 2 para a definição e/ou dimensionamento dos tabuleiros de betão armado. As conclusões relativamente às diferenças que advêm da adoção de ações segundo as SATCC, utilizadas no projeto de execução original, contra as dos Eurocódigos são evidentes. São apontadas, no capítulo da conclusão, algumas considerações finais relativamente às diferenças de resultados entre o projeto original e o presente estudo, tendo em conta os regulamentos utilizados. Para além do atrás exposto em termos de verificação de segurança dos tabuleiros, compilou-se alguma informação referente à fase de construção da obra, nomeadamente, na apresentação de algumas fases mais relevantes, assim como referências ao estaleiro adotado para uma obra desta envergadura e num território tão complexo, quanto o Angolano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo do processo de tomada de decisão tem sido um tema amplamente abordado ao longo do tempo pelos economistas, primordialmente sob o paradigma do homem racional ou homoeconomicus. No entanto, avanços nas áreas da economia comportamental e neurociências permitem hoje ir mais longe, nomeadamente ao nível da compreensão da interação entre processos de decisão e mecanismos cerebrais. Surge assim um novo campo de interesse para o estudo da economia: a neuroeconomia. Esta disciplina embrionária combina dados teóricos e empíricos a partir da conjugação das ferramentas da neurociência, da psicologia e da economia, permitindo uma abordagem unificada ao processo decisório. À luz dos novos estudos, a questão base deixa de ser normativa (que decisão deveria ser tomada em condições ideais) e passa a ser positiva (que decisão é efetivamente tomada), uma vez que se criou a faculdade de estudar e analisar o cérebro humano, de modo que alguns postulados económicos básicos puderam passar a ser explorados numa outra perspetiva. Neste estudo são apresentadas várias experiências que indicam, analisam e comprovam que o modelo racional não é necessariamente o mais adequado para a análise do sistema económico, em todas e quaisquer circunstâncias. Em contrapartida, a neuroeconomia assume-se como um campo de investigação com potencial para dar um contributo importante na construção de um modelo económico mais completo, complexo e confiável.