65 resultados para Métodos matemáticos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem como principal propósito selecionar novas metodologias de intervenção a aplicar na obra “Livro de Consultas e Decretos da Rainha D. Maria I” pertencente à Chancelaria Régia do Arquivo Municipal de Lisboa. Para tal, desenvolveu-se a contextualização histórica do livro e do Fundo e realizou-se o levantamento das problemáticas como as tintas ferrogálicas, manchas causadas por macro e microorganismos no papel, e reforços com papéis transparentes resultantes de restauros antigos nos manuscritos do livro. Realizou-se ainda a caracterização material dos substratos presentes no livro recorrendo a diferentes métodos de exame e análise. A escolha dos métodos para a remoção dos reforços teve como principal preocupação a substituição de métodos aquosos tradicionais, que não são controláveis, por novas metodologias de intervenção mais controladas. Estes métodos consistem na aplicação de humidade controlada através de técnicas como: humidificador ultrasónico com temperatura, Gore-tex, géis rígidos, cataplasma enzimático, e um ensaio experimental com dióxido de carbono supercrítico (CO2). Os resultados mais relevantes incidem na identificação do tipo de adesivo utilizado nos restauros antigos, e na operabilidade dos géis rígidos e cataplasma que se revelaram favoráveis no tratamento deste tipo de manuscritos. Tendo-se seleccionado os métodos com melhor operabilidade, realizaram-se intervenções de restauro em apenas alguns fólios, a partir do método mais adequado para cada tipo de substrato, tendo em conta o estado de conservação. Por fim desenvolveram-se propostas de intervenção para os restantes manuscritos e encadernação, assim como a execução de um acondicionamento adequado, proposta de conservação preventiva e uma ficha de restrição de acesso à obra.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A exigência relativamente à exatidão e à precisão de medições na indústria, tem vindo a aumentar significativamente. Para tal, é necessário uma constante evolução dos aparelhos de medida e calibração. Por sua vez, para que haja uniformidade nas medições a nível internacional, é necessário que todos os instrumentos de calibração primários sejam calibrados recorrendo a métodos estatísticos complexos e precisos. O objetivo desta dissertação consiste em analisar métodos numéricos utilizados pelos diferentes Laboratórios Nacionais de Metrologia a nível europeu, na determinação dos valores da área efetiva à pressão nula A0, e o coeficiente de distorção com a pressão λ, que definem a área efetiva Ap do conjunto pistão/cilindro em função da pressão, na calibração de Balanças Manométricas. Balanças essas, que servem de padrão a vários instrumentos de medição. Existem várias abordagens estatísticas para determinar e estimar os valores e as respetivas incertezas destes parâmetros, com resultados que poderão divergir significativamente entre os vários métodos. Realizou-se uma comparação “EURAMET Project 1125” utilizando conjuntos de dados simulados, com o objetivo de verificar numericamente a execução dos diferentes métodos utilizados pelos vários institutos. Verificou-se que utilizando o método OLS se obtêm piores resultados, este método, aumenta no entanto a sua eficácia quando se exclui o primeiro ponto. O método WLS revelou-se suficientemente eficaz para os casos estudados. O método GLS é um método bastante mais exaustivo e conduz a valores muito exatos. Tem-se ainda, o método usado pelo PTB, que considera a existência de uma forca F e que se revela muito exato. As estimativas das áreas efetivas calculadas pelos participantes, foram coerentes com os valores teóricos. Contudo as suas incertezas diferem. Esta analise feita pelo IPQ, foi importante, de forma a melhorar e acompanhar a evolução a nível internacional na calibração das Balanças Manométricas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO - A frequente insuficiência de informação e até, eventualmente, a presença de elementos cientificamente pouco robustos (ou mesmo hipotéticos) no procedimento de obtenção dos resultados finais (scores) com os diversos métodos de avaliação do risco, julga-se determinar a obtenção de distintos resultados no mesmo posto de trabalho e que interessam analisar. O presente estudo foi efectuado numa empresa da indústria automóvel e pretendeu contribuir para a efectividade do processo de avaliação do risco destas lesões em meio industrial. Utilizaram-se como ponto de partida as classificações de risco em postos de trabalho onde a aplicação do método OCRA — base do projecto de norma Europeu prEN 1005-5 para a estimativa do risco de LMEMSLT (Lesões Musculoesqueléticas do Membro Superior Ligadas ao Trabalho) — identificou níveis de risco moderados e/ou elevados (score OCRA ≥ 16,5). Assim nos postos de trabalho (n = 71) registou-se em vídeo a actividade de trabalho. Analisaram-se os principais factores de risco (postura, força, repetitividade e exposição a vibrações) com uma amostragem de segundo em segundo e aplicaram-se dois métodos: 1) RULA (McAtamney; Corlett, 1993); 2) SI (Moore; Garg, 1995). Dos resultados globais da aplicação dos métodos identificam- se discrepâncias evidentes: o método SI classificou 41 postos de risco elevado e o método RULA classificou apenas 26 postos de risco. Destaque para as divergências entre os postos classificados de risco elevado como, por exemplo: de entre os 41 postos com scores de risco da aplicação do método SI apenas se encontram 12 postos classificados de risco pelo método RULA. Os resultados permitem evidenciar validades preditivas diversas para os factores de risco analisados: 1) situações de aplicação de força (SI = 0,80; RULA = 0,66); 2) presença de posturas extremas (SI = 0,68; RULA = 0,48); 3) repetitividade (SI = 0,35; RULA = 0,43). Conclui-se pela divergência de resultados dos métodos SI e RULA aplicados nos mesmos postos de trabalho que tal situação alerta para a pertinência da utilização de um filtro que permita a identificação dos factores de risco presentes em cada posto de trabalho e que, por consequência, oriente a selecção do método mais indicado ou ainda, em oposição, do método contra-indicado. Este trabalho, como um contributo para uma efectiva identificação e avaliação do risco de LMEMSLT, conduz, no limite, à necessidade de elaboração de uma «grelha» das «grelhas» e de informação mais precisa sobre os métodos e sua aplicação, permitindo, desse modo, uma mais efectiva gestão do risco destas lesões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.