1000 resultados para Modelos de Painel
Resumo:
O problema dos sistemas de software legados sem documentação ou com documentação obsoleta, continua a ser uma realidade no mundo empresarial. O progressivo aumento da dimensão e complexidade dos sistemas desenvolvidos vem aumentar a necessidade de existirem mecanismos de modelação e documentação de apoio às actividades de manutenção e teste. Apesar da investigação que tem sido levada a cabo para tentar apresentar cada vez melhores abordagens à resolução deste problema,o seu uso no mundo empresarial ainda é muito esparso. Tal deve-se, pelo menos em parte, ao facto de muitas das abordagens propostas acabarem por representar um acrescento do esforço e do tempo, que as organizações não estão em condições de disponibilizar. Esta dissertação contribui com uma abordagem automatizada de suporte às actividades de documentação de sistemas, de manutenção e de testes. Para demonstrar a aplicabilidade e usabilidade da abordagem, propõe-se a implementação de uma ferramenta de apoio. A abordagem proposta baseia-se em técnicas já existentes e consolidadas, mas propõe extensões que permitem melhorar a sua integração,usabilidade e eficiência na sua aplicação. O problema fulcral aqui tratado é a inexistência ou insuficiência de documentação sobre os sistemas desenvolvidos. De modo a mitigar este problema, é apresentado um mecanismo de recuperação da modelação dinâmica de sistemas legados e respectiva geração de artefactos documentais,nomeadamente diagramas de sequência (UML), cartões CRC e matrizes de CRUD. Finalmente, introduzem-se técnicas de rastreabilidade e de apoio a testes de qualidade e cobertura para os sistemas construídos, usando uma metáfora de coloração de diagramas UML.
Resumo:
Os requisitos dizem, normalmente, o que um sistema deve fazer, por oposição a como fazê-lo. O contexto organizacional justifica e ajuda a compreender os porquês que levam à necessidade de certos requisitos importantes para um sistema de software ser bem sucedido. As técnicas de modelação de requisitos oferecem o conhecimento que permite a análise necessária nesta fase inicial do desenvolvimento. Contudo, a maioria das técnicas de requisitos são mais adequadas para uma fase posterior do processo da engenharia de requisitos. O desenvolvimento de software orientado a agentes procura preencher esta lacuna, mas é um paradigma relativamente recente. Para a consolidação deste novo paradigma, o projecto Tropos está a desenvolver uma abordagem para o desenvolvimento orientado a Agentes que se baseia nos conceitos sociais e intencionais oferecidos pela abordagem de modelação organizacional i*. No entanto, o uso do i* não é suficientemente expressivo como uma linguagem de descrição arquitectural. Reconhecendo no UML a capacidade de actuar como linguagem de descrição arquitectural, esta dissertação especifica as transformações necessárias dos modelos arquitecturais organizacionais descritos em i*, para os modelos arquitecturais descritos no perfil de Agência do UML utilizado para modelar sistemas multi-agente, através de uma abordagem orientada a modelos.
Resumo:
Bolsista de Doutorado (SFRH/BD/77667/2011) da Fundação de Ciência e Tecnologia, Portugal.
Resumo:
Com elevada preponderância na competitividade de uma organização, a avaliação é cada vez mais utilizada no mercado atual. Pode ser aplicada tanto na implementação de projetos como na melhoria do processo existente e da atividade do negócio como um todo. Na lógica da avaliação global do negócio, a avaliação é cada vez mais vista como uma boa prática, uma vez que permite, de forma integrada, durante as atividades de monitorização, identificar erros, desvios face a metas fixadas ou outros problemas de maneira a corrigi-los preventivamente. Na lógica da melhoria da atividade de negócio, possibilita a identificação de potenciais falhas onde se pode incidir na melhoria dos mesmos, tendo um nível de abrangência superior aos tradicionais indicadores financeiros, o que permite avaliar o desempenho global da organização e correlacionar medidas e impactos. No presente trabalho elaborou-se um levantamento de modelos de avaliação macroeconómicos, empresariais e individuais e foi realizado um questionário às organizações do setor vitivinícola para aferir da sua maturidade na prática de avaliação, bem com o intuito de aferir acerca da utilidade e aplicabilidade de um guia de apoio a esta prática. Com base nestes elementos, criou-se um guia de avaliação de referência para empresas transformadoras do setor vitivinícola, tendo como base os conceitos inerentes aos modelos de avaliação empresariais: balanced scorecard (BSC), modelo Shingo, modelo European Foundation for Quality Management (EFQM) e tendo em conta a contextualização realizada ao setor vitivinícola, baseada nas respostas fornecidas aos questionários realizados no âmbito desta dissertação.. Como resultado, gerou-se um guia de apoio à adoção de práticas de avaliação que poderá ser aplicado com vista ao aumento da competitividade das organizações do setor transformador vitivinícola.
Resumo:
A Fibrilhação Auricular é uma alteração do ritmo cardíaco designada por arritmia. Esta patologia é considerada a forma de arritmia mais frequentemente observada na prática clínica e que constitui uma importante causa de morbilidade pelo risco inerente de desenvolvimento de AVC. Em 2010 foi realizado um estudo epidemiológico na população Portuguesa com o objectivo determinar a prevalência de Fibrilhação Auricular na população portuguesa com idade igual ou superior a 40 anos, sob o acrónimo de FAMA. Os dados publicados indicaram uma estimativa de prevalência de 2,5%, com um aumento da prevalência em função da classe etária. A nível regional não foram observadas diferenças na taxa de prevalência. Estudos de mapeamento de doenças mostraram que a determinação de taxas de prevalência por região, quando o número de casos observados é relativamente baixo, apresentam sobredispersão e, consequentemente, uma falta de precisão nas estimativas obtidas através um método frequencista clássico. A utilização de modelos Bayesianos hierárquicos no mapeamento de doenças tem apresentado vantagem na estimação de valores de risco da doença comparativamente à abordagem clássica. Assim, é objectivo deste trabalho determinar a prevalência de Fibrilhação Auricular na população Portuguesa por região, ao nível da NUTS III, usando modelos hierárquicos Bayesianos. Os dados utilizados neste estudo são os dados referentes ao estudo FAMA, pós-estratificados para correcção dos ponderadores. O modelo Bayesiano proposto por Besag, York e Mollié (1991) foi usado para modelar os dados, covariando para a idade e índice de massa corporal. A revisão do desenho do estudo e o recálculo dos ponderadores foi realizado com recurso ao software R, survey, e a análise Bayesiana efectuada através do WinBugs. iii Os resultados deste estudo demonstram que o uso de modelos Bayesianos são uma melhor opção para a estimação de valores risco relativo e prevalência da doença. Contudo, a utilização de covariáveis não resultou numa melhoria considerável ao contrário do que seria esperado. Conclui-se que a Fibrilhação Auricular apresenta variações regionais significativas, a nível de NUTS III, que não devem ser desvalorizadas na determinação de políticas de saúde pública para controle da doença.
Resumo:
O principal objectivo deste trabalho assenta em desenvolver modelos de previsão de preços de commodities para assim comparar a capacidade preditiva da simulação de Monte Carlo com a das redes neuronais. A simulação de Monte Carlo é principalmente utilizada para avaliar as opções, já as redes neuronais são utilizadas para fazer previsões, classificações, clustering ou aproximação de funções. Os diversos modelos desenvolvidos foram aplicados na previsão do preço futuro do milho, petróleo, ouro e cobre. Sendo que os horizontes temporais testados neste trabalho foram 1 dia, 5 dias, 20 dias e 60 dias. Através da análise do erro absoluto médio percentual (MAPE) concluiu-se que no geral o modelo individual que apresentou um melhor desempenho preditivo foram as redes neuronais. Contudo, nas previsões a 1 e a 5 dias os resultados obtidos foram semelhantes para ambos os modelos. Para se tentar melhorar os resultados obtidos pelos modelos individuais foram aplicadas algumas técnicas de combinação de modelos. A combinação de modelos demonstrou no geral capacidade para melhorar os resultados dos modelos individuais, porém apenas para o horizonte a 60 dias é que os resultados melhoraram significativamente.
Resumo:
A elicitação de requisitos é uma das primeiras actividades do processo de Engenharia de Requisitos. Através desta etapa é possível capturar e estruturar os requisitos dos stakeholders e do sistema a ser implementado. Tipicamente esta estruturação é representada através de notação gráfica com o auxílio de ferramentas CASE. Estas ferramentas tornam esta actividade exclusiva, em termos de acessibilidade, a engenheiros sem deficiências físicas devido à complexidade das funcionalidades oferecidas pelas mesmas que permitem construir estes modelos. Nesta dissertação de mestrado é proposto desenvolver uma abordagem com suporte de uma ferramenta para melhorar a acessibilidade, e consequentemente,integrar um engenheiro de requisitos com limitações físicas na actividade de elicitação de requisitos. A ferramenta também possibilita uma alternativa para os stakeholders em geral para produzir modelos sem usar as mãos quando for mais conveniente. Esta abordagem propõe usar mecanismos de voz na geração de modelos de requisitos, mais concretamente modelos de requisitos orientados a objectivos, modelos de objectos e modelos de features usando técnicas de Model-Driven Development (MDD) (e.g., metamodelos). O stakeholder assim irá capturar os seus requisitos através de mecanismos de reconhecimento de voz, sendo automaticamente realizada uma transformação do seu discurso para um modelo KAOS, para um modelo conceptual ou para um modelo de features.
Resumo:
As abordagens de engenharia de requisitos orientada a objetivos oferecem mecanismos que ajudam na elicitação e modelação de requisitos. A presente dissertação centra-se no framework i*, uma das mais importantes linguagens de especificação de modelos de requisitos orientados a objetivos, que conta com grupos de trabalho em mais de vinte países e com sete edições de workshops internacionais. Existem alguns problemas que podem afetar a qualidade de modelos i*. A sua criação pode resultar em modelos complexos e/ou incompletos, assim como incorretos devido ao mau uso da notação do i*. Estes problemas contribuem para a existência de dificuldades na gestão e compreensão dos sistemas de software o que, por sua vez, leva a um aumento dos custos de desenvolvimento. A qualidade dos modelos deve, então, ser uma preocupação constante, por forma a que sejam construídos modelos corretos, completos e cuja complexidade acidental seja minimizada. Não obstante a sua importância, a gestão eficaz destes três aspetos é, ainda, um problema em aberto. Nesta dissertação é proposto um conjunto de métricas para dar suporte à avaliação quantitativa dos atributos de qualidade complexidade, completude e correção nos modelos de requisitos i*. As métricas são definidas seguindo a abordagem Goal-Question- Metric, sendo definidas tanto de modo informal, em língua natural, como formalmente, em OCL (Object Contraint Language), e incorporadas numa ferramenta de modelação i* para que possam ser recolhidas de modo automático. As métricas são avaliadas experimentalmente, através de um conjunto de casos de estudo reais e académicos, e teoricamente, através de propriedades deWeyuker.
Resumo:
No processo de desenvolvimento de software, um dos problemas recorrentes é garantir que as expectativas das partes interessadas (stakeholders) estão a ser satisfeitas. Expectativas essas que correspondem ao comportamento do sistema. A disciplina de Engenharia de Requisitos estuda a melhor forma de capturar, especificar, validar e gerir requisitos. No entanto, os modelos utilizados que expressam os comportamentos, muitas das vezes, não são entendidos por parte dos stakeholders. Com a introdução das metodologias ágeis, que se baseiam no princípio de uma colaboração ativa e contínua dos stakeholders durante o desenvolvimento de software, os pressupostos da disciplina de Engenharia de Requisitos foram questionados e fizeram nascer novas práticas. Uma prática que emergiu foi o Desenvolvimento Orientado ao Comportamento (BDD). Surgiu com a finalidade de dar a capacidade aos stakeholders de expressarem, sob a forma textual, o comportamento que desejam para o seu software, de forma simples e sucinta. No entanto, não existindo restrições nem validações automáticas na escrita dos stakeholders, é criada a possibilidade de introdução de ambiguidade e perda de informação quando a equipa de desenvolvimento utiliza os cenários descritos. Dado este problema, propomos uma abordagem em que os stakeholders consigam especificar cenários comportamentais, de forma cognitiva, com uma representação simples, clara e mais precisa. Criamos duas linguagens, o DomainMap e o BehaviorMap, que estão relacionadas entre si: uma para representar modelos de domínio e outra para representar cenários BDD, respetivamente. Foi executada uma experiência com 15 indivíduos para comparar o esforço cognitivo na compreensão entre cenários BehaviorMap e cenários textuais e os resultados mostraram que o BehaviorMap teve melhor desempenho.
Resumo:
Neste trabalho, são apresentados e discutidos os procedimentos prescritos no Eurocódigo 3, Parte 1-8, para cálculo e dimensionamento de ligações pilar-viga com chapa de extremidade, em estruturas de aço. Em particular, é analisado o método das componentes, que permite determinar a resistência e rigidez rotacional de juntas metálicas, possibilitando a utilização de ligações semi-rígidas, que frequentemente resultam em ligações mais económicas. A metodologia descrita é aplicada em dois exemplos numéricos, tendo-se comparado os valores calculados com os resultados obtidos através de um programa de cálculo automático (Powerconnect) que também se baseia no método das componentes. As análises efetuadas permitem constatar que existem algumas vertentes do programa que podem ser melhoradas. Recorreu-se ainda a um programa de cálculo automático comercial (Sap2000) para comparar os esforços atuantes numa estrutura metálica com ligações rígidas e semi-rígidas, tendo-se concluído que existem diferenças significativas entre as distribuições de esforços obtidas para as duas situações.
Resumo:
As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.
Resumo:
A estimação das provisões para sinistros é de extrema importância na atividade de uma seguradora do ramo Não Vida, porque, por um lado, são necessários recursos suficientes para garantir o pagamento de qualquer sinistro que ocorra e, por outro, o excesso de provisões pode condicionar a rentabilidade da companhia. Assim, faz parte do papel do atuário garantir a adequação destas provisões técnicas. Com esse propósito, é habitualmente utilizado o método determinístico Chain Ladder para a estimação das provisões para sinistros. Contudo, de forma a contornar as limitações desta metodologia, recorre-se a modelos estocásticos, como o modelo proposto por Thomas Mack, uma aplicação dos Modelos Lineares Generalizados, a técnica Bootstrap, entre outros. Dos modelos estocásticos é de salientar um dos mais recentemente estudados, Double Chain Ladder, que está diretamente associado ao método Chain Ladder, trazendo algumas vantagens sobre esse último e possibilitando também a aplicação da técnica Bootstrap e uma simples associação ao método Bornhuetter-Ferguson. O objetivo desta dissertação consiste na aplicação e análise destes modelos na estimação de provisões para sinistros no ramo Não Vida.
Resumo:
Este artigo tem por base um estudo enquadrado no uso de materiais/modelos de ensino da Matemática na década de 60, aquando da implementação do Movimento Matemática Moderna, em Portugal. Para atingir este objectivo definimos três questões: 1) Já havia interesse no uso destes novos métodos de ensino, e consequentemente no uso de materiais diversos que levassem a uma melhor aprendizagem por parte dos alunos, antes da década de 60? 2) De que modo os professores aplicaram e usaram estes métodos/materiais na sua prática docente? E que formação tiveram? 3) Quais os métodos e materiais que os professores utilizavam nas suas aulas? O foco central deste trabalho parte da análise de dois artigos escritos na revista Labor, o primeiro em 1952 e o segundo em 1960, pelo professor António Augusto Lopes1 sobre o uso de materiais no 1º ciclo e o Laboratório de Matemática. Toda a pesquisa deste trabalho focou-se na interpretação de material fornecido pelo professor Lopes (manuscritos, relatórios, livros e fotografias, documentos do Ministério da Educação Nacional), bem como por reflexões e comentários do próprio, registadas na forma de entrevista,2 sobre o que foi o Movimento Matemática Moderna ao nível da prática docente, com recurso a novas metodologias e materiais de ensino. O período que irá ser analisado em termos cronológicos será de 1957 a 1965, isto porque é um período experimental e de mudança. A reunião de 57 da CIEAEM em Madrid é o marco histórico que irá despoletar o interesse da Comissão e de Augusto Lopes para a aplicação dos novos materiais\modelos. Apesar de só em 1965 serem criadas as primeiras turmas piloto para aplicação das metodologias e dos novos materiais\modelos preconizadas pelo MMM.
Resumo:
Anualmente os incêndios florestais causam prejuízos por territórios por todo o mundo. Nas últimas décadas, estudos sobre o comportamento do fogo e avanços em tecnologias SIG, deram origem a modelos matemáticos de previsão e à sua inserção em sistemas informáticos de simulação de comportamento e propagação de fogo. A utilização destes necessita da caracterização das variáveis que determinam o comportamento do fogo: variáveis topográficas, condições meteorológicas e combustível vegetal. A vegetação assume-se como a única variável que pode ser controlada através de medidas de gestão e a mais estudada por todo o mundo. A sua caracterização é geralmente efetuada através de modelos de combustível, que consiste num conjunto de propriedades quantificáveis utilizadas nos modelos de comportamento do fogo. Através da utilização do simulador FARSITE, foi efetuada a simulação de comportamento de fogo em áreas de ocorrência de incêndios florestais localizadas na região do Alentejo Central, Portugal, recorrendo a diversos conjuntos de modelos de combustível para caracterizar a vegetação. Os resultados evidenciam, no geral, um maior rigor dos modelos de combustível customizados na caracterização da vegetação da área de estudo.