142 resultados para Métodos de conservação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A exigência relativamente à exatidão e à precisão de medições na indústria, tem vindo a aumentar significativamente. Para tal, é necessário uma constante evolução dos aparelhos de medida e calibração. Por sua vez, para que haja uniformidade nas medições a nível internacional, é necessário que todos os instrumentos de calibração primários sejam calibrados recorrendo a métodos estatísticos complexos e precisos. O objetivo desta dissertação consiste em analisar métodos numéricos utilizados pelos diferentes Laboratórios Nacionais de Metrologia a nível europeu, na determinação dos valores da área efetiva à pressão nula A0, e o coeficiente de distorção com a pressão λ, que definem a área efetiva Ap do conjunto pistão/cilindro em função da pressão, na calibração de Balanças Manométricas. Balanças essas, que servem de padrão a vários instrumentos de medição. Existem várias abordagens estatísticas para determinar e estimar os valores e as respetivas incertezas destes parâmetros, com resultados que poderão divergir significativamente entre os vários métodos. Realizou-se uma comparação “EURAMET Project 1125” utilizando conjuntos de dados simulados, com o objetivo de verificar numericamente a execução dos diferentes métodos utilizados pelos vários institutos. Verificou-se que utilizando o método OLS se obtêm piores resultados, este método, aumenta no entanto a sua eficácia quando se exclui o primeiro ponto. O método WLS revelou-se suficientemente eficaz para os casos estudados. O método GLS é um método bastante mais exaustivo e conduz a valores muito exatos. Tem-se ainda, o método usado pelo PTB, que considera a existência de uma forca F e que se revela muito exato. As estimativas das áreas efetivas calculadas pelos participantes, foram coerentes com os valores teóricos. Contudo as suas incertezas diferem. Esta analise feita pelo IPQ, foi importante, de forma a melhorar e acompanhar a evolução a nível internacional na calibração das Balanças Manométricas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os trabalhos de conservação e restauro sobre grandes áreas de mosaico conservados in situ levantam diversos problemas logísticos inerentes ao registo, nomeadamente da forma e conteúdos dos painéis, do diagnóstico de patologias e do relatório de intervenção. A necessidade de registar dados que têm expressão ao nível de uma tessela – área frequentemente inferior a 1cm2 – sobre áreas totais da ordem das dezenas ou centenas de metros quadrados, limitada pelas condições do local – meteorologia, ciclo diário e sazonal, etc. – obriga a que se instituam metodologias que permitam abreviar o tempo necessário para resolver todas as operações de registo com a acuidade essencial. Os métodos e as ferramentas fundamentais para agilizar o processo de registo são os assuntos deste artigo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Recensão de: Jorge Custódio, "'Renascença artística' e práticas de conservação e restauro arquitectónico em Portugal, durante a 1.ª República". Tese de Doutoramento em Arquitectura. Universidade de Évora, 2009. [Texto policopiado]

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A indústria da construção, em especial o setor da reabilitação, começa a dar sinais positivos, aumentando o interesse dos investidores e o consequente aumento de investimento. Este é um setor onde ainda há muito a fazer, já que os centros urbanos encontram-se abandonados e degradados a precisar de medidas de intervenção que deem uma nova dinâmica às cidades. Nos dias de hoje as exigências funcionais (e.g. térmicas, uso normal, incêndio, entre outras) são maiores do que há alguns anos, o que faz com que as construções precisem de ser reabilitadas, com o objetivo de corresponderem aos requisitos de satisfação atuais. Numa intervenção em edifícios existentes a maior preocupação deverá ser o estado de conservação dos elementos funcionais, para que sejam determinadas intervenções que, no mínimo, devolvam as funções iniciais ao edifício, eliminando as anomalias existentes. Atualmente, no campo do diagnóstico de anomalias, há muitos estudos que permitem uma análise aprofundada de determinado material, elemento funcional ou de anomalias específicas, tendo o potencial de servir de apoio a metodologias que se possam desenvolver num âmbito mais geral. Neste estudo é apresentada uma proposta de método de classificação das necessidades de intervenção, com a definição do respetivo nível e prioridade, com o objetivo de apoiar a inspeção e a decisão das soluções de reabilitação, para que sejam adotadas soluções adequadas às anomalias e ao grau de exigência do Promotor. O tipo de ações de diagnóstico de anomalias necessário é determinado conforme a classificação do nível de anomalia, baseado no Método de Avaliação do Estado de Conservação de imóveis (MAEC) e na atividade das causas que lhes deram origem O nível de intervenção é classificado conforme a extensão das anomalias nos elementos funcionais, enquanto a prioridade de intervenção é definida segundo a avaliação do estado de conservação do edifício (MAEC) e a afetação das exigências funcionais, tendo em conta a importância dos elementos funcionais. Houve alguma dificuldade na definição da metodologia proposta devido à vasta informação existente nesta área, quer de sistemas construtivos, como de anomalias, diagnósticos e soluções de intervenção, que apresentam características específicas, dificultando a adoção de métodos gerais que sejam adequados aos diferentes casos. No entanto foi possível aprender com uma série de informações e ferramentas utilizadas nos outros métodos, para que, através de uma inspeção visual, realizada no âmbito do MAEC, seja possível diagnosticar as anomalias e classificar a intervenção. Espera-se de futuro que seja realizada a validação do método proposto, através da sua aplicação em casos práticos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO - A frequente insuficiência de informação e até, eventualmente, a presença de elementos cientificamente pouco robustos (ou mesmo hipotéticos) no procedimento de obtenção dos resultados finais (scores) com os diversos métodos de avaliação do risco, julga-se determinar a obtenção de distintos resultados no mesmo posto de trabalho e que interessam analisar. O presente estudo foi efectuado numa empresa da indústria automóvel e pretendeu contribuir para a efectividade do processo de avaliação do risco destas lesões em meio industrial. Utilizaram-se como ponto de partida as classificações de risco em postos de trabalho onde a aplicação do método OCRA — base do projecto de norma Europeu prEN 1005-5 para a estimativa do risco de LMEMSLT (Lesões Musculoesqueléticas do Membro Superior Ligadas ao Trabalho) — identificou níveis de risco moderados e/ou elevados (score OCRA ≥ 16,5). Assim nos postos de trabalho (n = 71) registou-se em vídeo a actividade de trabalho. Analisaram-se os principais factores de risco (postura, força, repetitividade e exposição a vibrações) com uma amostragem de segundo em segundo e aplicaram-se dois métodos: 1) RULA (McAtamney; Corlett, 1993); 2) SI (Moore; Garg, 1995). Dos resultados globais da aplicação dos métodos identificam- se discrepâncias evidentes: o método SI classificou 41 postos de risco elevado e o método RULA classificou apenas 26 postos de risco. Destaque para as divergências entre os postos classificados de risco elevado como, por exemplo: de entre os 41 postos com scores de risco da aplicação do método SI apenas se encontram 12 postos classificados de risco pelo método RULA. Os resultados permitem evidenciar validades preditivas diversas para os factores de risco analisados: 1) situações de aplicação de força (SI = 0,80; RULA = 0,66); 2) presença de posturas extremas (SI = 0,68; RULA = 0,48); 3) repetitividade (SI = 0,35; RULA = 0,43). Conclui-se pela divergência de resultados dos métodos SI e RULA aplicados nos mesmos postos de trabalho que tal situação alerta para a pertinência da utilização de um filtro que permita a identificação dos factores de risco presentes em cada posto de trabalho e que, por consequência, oriente a selecção do método mais indicado ou ainda, em oposição, do método contra-indicado. Este trabalho, como um contributo para uma efectiva identificação e avaliação do risco de LMEMSLT, conduz, no limite, à necessidade de elaboração de uma «grelha» das «grelhas» e de informação mais precisa sobre os métodos e sua aplicação, permitindo, desse modo, uma mais efectiva gestão do risco destas lesões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.