147 resultados para validação de modelos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com elevada preponderância na competitividade de uma organização, a avaliação é cada vez mais utilizada no mercado atual. Pode ser aplicada tanto na implementação de projetos como na melhoria do processo existente e da atividade do negócio como um todo. Na lógica da avaliação global do negócio, a avaliação é cada vez mais vista como uma boa prática, uma vez que permite, de forma integrada, durante as atividades de monitorização, identificar erros, desvios face a metas fixadas ou outros problemas de maneira a corrigi-los preventivamente. Na lógica da melhoria da atividade de negócio, possibilita a identificação de potenciais falhas onde se pode incidir na melhoria dos mesmos, tendo um nível de abrangência superior aos tradicionais indicadores financeiros, o que permite avaliar o desempenho global da organização e correlacionar medidas e impactos. No presente trabalho elaborou-se um levantamento de modelos de avaliação macroeconómicos, empresariais e individuais e foi realizado um questionário às organizações do setor vitivinícola para aferir da sua maturidade na prática de avaliação, bem com o intuito de aferir acerca da utilidade e aplicabilidade de um guia de apoio a esta prática. Com base nestes elementos, criou-se um guia de avaliação de referência para empresas transformadoras do setor vitivinícola, tendo como base os conceitos inerentes aos modelos de avaliação empresariais: balanced scorecard (BSC), modelo Shingo, modelo European Foundation for Quality Management (EFQM) e tendo em conta a contextualização realizada ao setor vitivinícola, baseada nas respostas fornecidas aos questionários realizados no âmbito desta dissertação.. Como resultado, gerou-se um guia de apoio à adoção de práticas de avaliação que poderá ser aplicado com vista ao aumento da competitividade das organizações do setor transformador vitivinícola.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As vitaminas são substâncias orgânicas presentes em muitos alimentos, em pequenas quantidades e indispensáveis ao funcionamento do organismo. A ausência sistemática destas resulta, quase sempre, em crescimento e desenvolvimento deficientes e em casos extremos pode conduzir a doenças graves, como por exemplo, a demência (vitaminas do complexo B), o raquitismo (vitamina D), o escorbuto (vitamina C). Em 1968 a American Food and Nutrition Board reconheceu oficialmente a vitamina E como um nutriente essencial para os seres humanos, pois possui uma importante função no organismo, como antioxidante, ao inibir a oxidação de lípidos insaturados e ao prevenir o dano oxidativo celular pela inativação de radicais livres e espécies reativas de oxigênio. O interesse nesta vitamina é cada vez maior, devido às funções que desempenha no organismo como agente antioxidante, envolvido no retardamento do envelhecimento e na proteção de doenças crônicas não transmissíveis, como Parkinson, Alzheimer, cancro e doenças cardiovasculares. O presente trabalho tem como objetivo a implementação e validação de um método de pesquisa e quantificação da vitamina E na manteiga por cromatografia líquida de alta eficiência, no laboratório de Química da empresa SGS, expandindo desta forma, as capacidades da empresa nesta área. Para tal foram avaliados parâmetros como linearidade, limites de deteção e quantificação, repetibilidade, precisão intermédia e exatidão. Os resultados mostram que o método é linear para uma gama de trabalho entre 5,00 e 50,00 mg/L com um limite de deteção e quantificação de 1,27 mg/L e 3,84 mg/L, respetivamente. O método apresentou repetibilidade e precisão intermédia aceitáveis, com coeficientes de variação inferiores a 5%, limite de repetibilidade de 1,37 mg/kg e variabilidade de resultados associados ao método de 0,19 mg/L. A exatidão do método foi aferida recorrendo a ensaios de recuperação, tendo-se obtido percentagens de recuperação médias superiores a 80%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Fibrilhação Auricular é uma alteração do ritmo cardíaco designada por arritmia. Esta patologia é considerada a forma de arritmia mais frequentemente observada na prática clínica e que constitui uma importante causa de morbilidade pelo risco inerente de desenvolvimento de AVC. Em 2010 foi realizado um estudo epidemiológico na população Portuguesa com o objectivo determinar a prevalência de Fibrilhação Auricular na população portuguesa com idade igual ou superior a 40 anos, sob o acrónimo de FAMA. Os dados publicados indicaram uma estimativa de prevalência de 2,5%, com um aumento da prevalência em função da classe etária. A nível regional não foram observadas diferenças na taxa de prevalência. Estudos de mapeamento de doenças mostraram que a determinação de taxas de prevalência por região, quando o número de casos observados é relativamente baixo, apresentam sobredispersão e, consequentemente, uma falta de precisão nas estimativas obtidas através um método frequencista clássico. A utilização de modelos Bayesianos hierárquicos no mapeamento de doenças tem apresentado vantagem na estimação de valores de risco da doença comparativamente à abordagem clássica. Assim, é objectivo deste trabalho determinar a prevalência de Fibrilhação Auricular na população Portuguesa por região, ao nível da NUTS III, usando modelos hierárquicos Bayesianos. Os dados utilizados neste estudo são os dados referentes ao estudo FAMA, pós-estratificados para correcção dos ponderadores. O modelo Bayesiano proposto por Besag, York e Mollié (1991) foi usado para modelar os dados, covariando para a idade e índice de massa corporal. A revisão do desenho do estudo e o recálculo dos ponderadores foi realizado com recurso ao software R, survey, e a análise Bayesiana efectuada através do WinBugs. iii Os resultados deste estudo demonstram que o uso de modelos Bayesianos são uma melhor opção para a estimação de valores risco relativo e prevalência da doença. Contudo, a utilização de covariáveis não resultou numa melhoria considerável ao contrário do que seria esperado. Conclui-se que a Fibrilhação Auricular apresenta variações regionais significativas, a nível de NUTS III, que não devem ser desvalorizadas na determinação de políticas de saúde pública para controle da doença.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objectivo deste trabalho assenta em desenvolver modelos de previsão de preços de commodities para assim comparar a capacidade preditiva da simulação de Monte Carlo com a das redes neuronais. A simulação de Monte Carlo é principalmente utilizada para avaliar as opções, já as redes neuronais são utilizadas para fazer previsões, classificações, clustering ou aproximação de funções. Os diversos modelos desenvolvidos foram aplicados na previsão do preço futuro do milho, petróleo, ouro e cobre. Sendo que os horizontes temporais testados neste trabalho foram 1 dia, 5 dias, 20 dias e 60 dias. Através da análise do erro absoluto médio percentual (MAPE) concluiu-se que no geral o modelo individual que apresentou um melhor desempenho preditivo foram as redes neuronais. Contudo, nas previsões a 1 e a 5 dias os resultados obtidos foram semelhantes para ambos os modelos. Para se tentar melhorar os resultados obtidos pelos modelos individuais foram aplicadas algumas técnicas de combinação de modelos. A combinação de modelos demonstrou no geral capacidade para melhorar os resultados dos modelos individuais, porém apenas para o horizonte a 60 dias é que os resultados melhoraram significativamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A elicitação de requisitos é uma das primeiras actividades do processo de Engenharia de Requisitos. Através desta etapa é possível capturar e estruturar os requisitos dos stakeholders e do sistema a ser implementado. Tipicamente esta estruturação é representada através de notação gráfica com o auxílio de ferramentas CASE. Estas ferramentas tornam esta actividade exclusiva, em termos de acessibilidade, a engenheiros sem deficiências físicas devido à complexidade das funcionalidades oferecidas pelas mesmas que permitem construir estes modelos. Nesta dissertação de mestrado é proposto desenvolver uma abordagem com suporte de uma ferramenta para melhorar a acessibilidade, e consequentemente,integrar um engenheiro de requisitos com limitações físicas na actividade de elicitação de requisitos. A ferramenta também possibilita uma alternativa para os stakeholders em geral para produzir modelos sem usar as mãos quando for mais conveniente. Esta abordagem propõe usar mecanismos de voz na geração de modelos de requisitos, mais concretamente modelos de requisitos orientados a objectivos, modelos de objectos e modelos de features usando técnicas de Model-Driven Development (MDD) (e.g., metamodelos). O stakeholder assim irá capturar os seus requisitos através de mecanismos de reconhecimento de voz, sendo automaticamente realizada uma transformação do seu discurso para um modelo KAOS, para um modelo conceptual ou para um modelo de features.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os Ensaios Não destrutivos de (END) por Correntes Induzidas (CI) são uma das principais técnicas utilizadas na inspeção de tubagens, nomeadamente em caldeiras e permutadores de calor. Apesar de ser uma técnica comum e com muitos anos de experiência acumulada, existem algumas condições onde persistem dificuldades, como é o caso da deteção de micro defeitos com orientação tangencial. Por outro lado, assiste-se atualmente a uma exigência cada vez maior do ponto de vista da fiabilidade dos sistemas e sondas de CI. Um exemplo particular dessa exigência é a inspeção de um perfil com geometria tubular em aço inox 316LN (JK2LB), o qual constitui as bobinas poloidais do International Thermonuclear Experimental Reactor (ITER). O objetivo central deste trabalho foi desenvolver e validar experimentalmente diferentes tipos de sondas de CI para a deteção de micro defeitos no interior de componentes de geometria tubular, com vista a reduzir o limiar de detetabilidade dos defeitos com orientação tangencial, e assim aumentar a fiabilidade de inspeção. Foram concebidas, produzidas e validadas experimentalmente quatro novas sondas de CI e foram replicadas três configurações já existentes. Foram realizadas simulações numéricas das diferentes sondas, sob diferentes condições de inspeção e criaram-se os meios laboratoriais adequados para a realização dos END. Os resultados experimentais mostraram que as novas sondas desenvolvidas permitem detetar com clareza defeitos tangenciais com 2 mm de comprimento e 0.5 mm de profundidade, o que está claramente abaixo do limiar de detetabilidade das sondas convencionais constituídas por bobinas toroidais. As simulações numéricas permitiram descrever e caracterizar com sucesso alguns fenómenos elétricos e magnéticos envolvidos no funcionamento das sondas. Em termos genéricos, foi estabelecido um importante conhecimento processual dos END por CI de geometrias tubulares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As abordagens de engenharia de requisitos orientada a objetivos oferecem mecanismos que ajudam na elicitação e modelação de requisitos. A presente dissertação centra-se no framework i*, uma das mais importantes linguagens de especificação de modelos de requisitos orientados a objetivos, que conta com grupos de trabalho em mais de vinte países e com sete edições de workshops internacionais. Existem alguns problemas que podem afetar a qualidade de modelos i*. A sua criação pode resultar em modelos complexos e/ou incompletos, assim como incorretos devido ao mau uso da notação do i*. Estes problemas contribuem para a existência de dificuldades na gestão e compreensão dos sistemas de software o que, por sua vez, leva a um aumento dos custos de desenvolvimento. A qualidade dos modelos deve, então, ser uma preocupação constante, por forma a que sejam construídos modelos corretos, completos e cuja complexidade acidental seja minimizada. Não obstante a sua importância, a gestão eficaz destes três aspetos é, ainda, um problema em aberto. Nesta dissertação é proposto um conjunto de métricas para dar suporte à avaliação quantitativa dos atributos de qualidade complexidade, completude e correção nos modelos de requisitos i*. As métricas são definidas seguindo a abordagem Goal-Question- Metric, sendo definidas tanto de modo informal, em língua natural, como formalmente, em OCL (Object Contraint Language), e incorporadas numa ferramenta de modelação i* para que possam ser recolhidas de modo automático. As métricas são avaliadas experimentalmente, através de um conjunto de casos de estudo reais e académicos, e teoricamente, através de propriedades deWeyuker.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os incêndios em edifícios representam um fenómeno que pode ter consequências devastadoras quando não controlado, não só em termos de perdas de vidas humanas, como em termos económicos. No passado, a ocorrência de incêndios de grandes dimensões mostrou os efeitos do fogo descontrolado nos edifícios, assim como a ineficiência dos meios de segurança ativa ao fogo. Nas últimas duas décadas, estas questões motivaram o estudo e compreensão da ação dos incêndios nas estruturas dos edifícios. Neste trabalho estuda-se a modelação da ação do fogo em estruturas metálicas e mistas, com o objetivo de contribuir para a sua melhor caracterização. A presente tese foca-se na validação e compreensão da implementação de análises termo-mecânicas a estruturas mistas no software de elementos finitos OpenSees (Open System for Earthquake Engineering Simulation), contribuindo assim para futuros estudos, não só de análises de estruturas mistas sujeitas a incêndio, mas também de análises de estruturas mistas sujeitas a eventos consecutivos, como sismo seguido de incêndio. Neste trabalho é feita uma breve descrição do fenómeno fogo, assim como dos processos inerentes à dinâmica de um incêndio que constituem uma fonte de incerteza para a modelação de cenários de incêndio num edifício. Posto isto, são abordados alguns modelos de incêndios presentes nos Eurocódigos, assim como o recente modelo de fogos móveis(“Travelling fires”). São realizados exemplos de aplicação no software e dois casos de estudo. O primeiro consiste na modelação de dois ensaios ao fogo realizados na Alemanha em 1986 em estruturas metálicas à escala 1/4. O segundo consiste na modelação de um ensaio ao fogo a uma viga de betão armado simplesmente apoiada, realizado no Instituto Superior Técnico em 2010. Os modelos numéricos desenvolvidos no OpenSees contabilizam as não linearidades físicas e geométricas, com elementos finitos de plasticidade distribuída e com uma formulação baseada em deslocamentos. Os resultados numéricos são então comparados com os experimentais, de modo a validar as análises termo-mecânicas no OpenSees.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No processo de desenvolvimento de software, um dos problemas recorrentes é garantir que as expectativas das partes interessadas (stakeholders) estão a ser satisfeitas. Expectativas essas que correspondem ao comportamento do sistema. A disciplina de Engenharia de Requisitos estuda a melhor forma de capturar, especificar, validar e gerir requisitos. No entanto, os modelos utilizados que expressam os comportamentos, muitas das vezes, não são entendidos por parte dos stakeholders. Com a introdução das metodologias ágeis, que se baseiam no princípio de uma colaboração ativa e contínua dos stakeholders durante o desenvolvimento de software, os pressupostos da disciplina de Engenharia de Requisitos foram questionados e fizeram nascer novas práticas. Uma prática que emergiu foi o Desenvolvimento Orientado ao Comportamento (BDD). Surgiu com a finalidade de dar a capacidade aos stakeholders de expressarem, sob a forma textual, o comportamento que desejam para o seu software, de forma simples e sucinta. No entanto, não existindo restrições nem validações automáticas na escrita dos stakeholders, é criada a possibilidade de introdução de ambiguidade e perda de informação quando a equipa de desenvolvimento utiliza os cenários descritos. Dado este problema, propomos uma abordagem em que os stakeholders consigam especificar cenários comportamentais, de forma cognitiva, com uma representação simples, clara e mais precisa. Criamos duas linguagens, o DomainMap e o BehaviorMap, que estão relacionadas entre si: uma para representar modelos de domínio e outra para representar cenários BDD, respetivamente. Foi executada uma experiência com 15 indivíduos para comparar o esforço cognitivo na compreensão entre cenários BehaviorMap e cenários textuais e os resultados mostraram que o BehaviorMap teve melhor desempenho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, são apresentados e discutidos os procedimentos prescritos no Eurocódigo 3, Parte 1-8, para cálculo e dimensionamento de ligações pilar-viga com chapa de extremidade, em estruturas de aço. Em particular, é analisado o método das componentes, que permite determinar a resistência e rigidez rotacional de juntas metálicas, possibilitando a utilização de ligações semi-rígidas, que frequentemente resultam em ligações mais económicas. A metodologia descrita é aplicada em dois exemplos numéricos, tendo-se comparado os valores calculados com os resultados obtidos através de um programa de cálculo automático (Powerconnect) que também se baseia no método das componentes. As análises efetuadas permitem constatar que existem algumas vertentes do programa que podem ser melhoradas. Recorreu-se ainda a um programa de cálculo automático comercial (Sap2000) para comparar os esforços atuantes numa estrutura metálica com ligações rígidas e semi-rígidas, tendo-se concluído que existem diferenças significativas entre as distribuições de esforços obtidas para as duas situações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A técnica de Ensaios Não Destrutivos (END) baseada em células bacterianas (CB) foi proposta recentemente e tem demonstrado viabilidade na identificação de micro defeitos superficiais, com espessuras e profundidades inferiores a 5 μm, em vários materiais de engenharia. O conhecimento processual já é significativo, mas diversos aspectos carecem de desenvolvimentos, nomeadamente, a interacção das bactérias com outros materiais, o limiar de detectabilidade da técnica, a aplicação a defeitos naturais ou o comportamento dinâmico das bactérias sujeitas a campos eléctricos ou magnéticos. Este trabalho pretendeu ser um passo em frente no conhecimento da técnica. Os principais objectivos foram alargar a documentação sobre a interacção bactéria-material, determinar o menor defeito padrão possível de detectar, estabelecer e validar um modelo analítico da dinâmica das bactérias sujeitas a forças exteriores, e comparar o desempenho da técnica com os END por líquidos penetrantes (LP). Foi desenvolvido e testado um protótipo para aplicação de campos magnéticos permanentes triaxiais. A bactéria Rhodococcus erythropolis foi usada na inspecção dos materiais AA1100, AISI 316L, WC, titânio, NiTi, ouro, ABS e lentes oftálmicas, com defeitos padrão por micro e nano indentação e riscagem, assim como os defeitos existentes em soldaduras laser. A técnica foi testada nos padrões de sensibilidade dos LP para efeitos de comparação. Verificou-se que é possível identificar defeitos de nano indentação com largura e profundidades de aproximadamente 5,3 μm e 0,4 μm, respectivamente, e que também são identificados os defeitos dos padrões sensibilidade dos LP, com cerca de 1 μm de espessura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estimação das provisões para sinistros é de extrema importância na atividade de uma seguradora do ramo Não Vida, porque, por um lado, são necessários recursos suficientes para garantir o pagamento de qualquer sinistro que ocorra e, por outro, o excesso de provisões pode condicionar a rentabilidade da companhia. Assim, faz parte do papel do atuário garantir a adequação destas provisões técnicas. Com esse propósito, é habitualmente utilizado o método determinístico Chain Ladder para a estimação das provisões para sinistros. Contudo, de forma a contornar as limitações desta metodologia, recorre-se a modelos estocásticos, como o modelo proposto por Thomas Mack, uma aplicação dos Modelos Lineares Generalizados, a técnica Bootstrap, entre outros. Dos modelos estocásticos é de salientar um dos mais recentemente estudados, Double Chain Ladder, que está diretamente associado ao método Chain Ladder, trazendo algumas vantagens sobre esse último e possibilitando também a aplicação da técnica Bootstrap e uma simples associação ao método Bornhuetter-Ferguson. O objetivo desta dissertação consiste na aplicação e análise destes modelos na estimação de provisões para sinistros no ramo Não Vida.