58 resultados para ANALISIS DE SERIES DE TIEMPO - MODELOS ECONOMETRICOS
Resumo:
This paper studies the statistical distributions of worldwide earthquakes from year 1963 up to year 2012. A Cartesian grid, dividing Earth into geographic regions, is considered. Entropy and the Jensen–Shannon divergence are used to analyze and compare real-world data. Hierarchical clustering and multi-dimensional scaling techniques are adopted for data visualization. Entropy-based indices have the advantage of leading to a single parameter expressing the relationships between the seismic data. Classical and generalized (fractional) entropy and Jensen–Shannon divergence are tested. The generalized measures lead to a clear identification of patterns embedded in the data and contribute to better understand earthquake distributions.
Resumo:
Complex industrial plants exhibit multiple interactions among smaller parts and with human operators. Failure in one part can propagate across subsystem boundaries causing a serious disaster. This paper analyzes the industrial accident data series in the perspective of dynamical systems. First, we process real world data and show that the statistics of the number of fatalities reveal features that are well described by power law (PL) distributions. For early years, the data reveal double PL behavior, while, for more recent time periods, a single PL fits better into the experimental data. Second, we analyze the entropy of the data series statistics over time. Third, we use the Kullback–Leibler divergence to compare the empirical data and multidimensional scaling (MDS) techniques for data analysis and visualization. Entropy-based analysis is adopted to assess complexity, having the advantage of yielding a single parameter to express relationships between the data. The classical and the generalized (fractional) entropy and Kullback–Leibler divergence are used. The generalized measures allow a clear identification of patterns embedded in the data.
Resumo:
Data Mining (DM) methods are being increasingly used in prediction with time series data, in addition to traditional statistical approaches. This paper presents a literature review of the use of DM with time series data, focusing on short- time stocks prediction. This is an area that has been attracting a great deal of attention from researchers in the field. The main contribution of this paper is to provide an outline of the use of DM with time series data, using mainly examples related with short-term stocks prediction. This is important to a better understanding of the field. Some of the main trends and open issues will also be introduced.
Resumo:
Este trabalho propõe-se a investigar as teorias e modelos organizacionais e a respetiva aplicabilidade nas organizações portuguesas. Após a revisão da literatura sobre modelos organizacionais, foi efetuada uma investigação quantitativa através de um questionário online com a finalidade de avaliar quais os modelos organizacionais predominantemente utilizados e quais as características organizacionais que levam à utilização de determinado modelo. Através de métodos estatísticos analisaram-se os resultados do inquérito com o objetivo de verificar a existência de possíveis relações entre diversas características das organizações e o modelo organizacional usado. Foi possível concluir que o modelo organizacional Burocrático é o modelo predominantemente utilizado pelos respondentes e que as organizações que adotam o modelo burocrático parecem conseguir implementar processos sistemáticos de inovação compatibilizando as regras e procedimentos com a capacidade para aprender e se adaptar. O setor de atividade e a dimensão das organizações são as variáveis que mais influenciam a adoção do modelo organizacional. A investigação contribui para o conhecimento teórico e pratico sobre modelos organizacionais e sobre a sua aplicação em diferentes tipos de organizações portuguesas e para a compreensão e capacitação dos engenheiros do tema da cultura organizacional, de modo a poderem trabalhar de forma efetiva em grupos multidisciplinares que criem valor para as respetivas organizações, inovando e aplicando a engenharia e tecnologia para lidar com as questões e desafios atuais referidos pelo relatório da UNESCO (1).
Resumo:
A Declaração de Bolonha (1999) obrigou a mudanças várias, reconfigurando os modelos formativos no espaço europeu do ensino superior, até 2010. A partir de 2006, em Portugal, com a criação e adequação dos cursos superiores existentes ao modelo de Bolonha, verificou-se uma generalizada redução da duração média dos diferentes ciclos de estudo e a definição de competências gerais e específicas para os cursos e estudantes. Reflecte-se sobre a importância da literacia da informação, conceito evolutivo e abrangente, que se pode traduzir, sumariamente, em saber quando e porquê se tem uma necessidade informacional, onde encontrar a informação, como avaliá-la, usá-la e comunicá-la de forma ética, incluindo as competências tecnológicas, definição que se inscreve na interdisciplinar Ciência da Informação e no comportamento informacional. Destaca-se a vantagem de uma formação para a literacia da informação no ensino superior, a qual contribuirá, certamente, para dotar os estudantes das referidas competências e melhorá-las. Defende-se a necessidade de uma desejável inter-acção entre múltiplos agentes educativos, com destaque para a trilogia estudantes, bibliotecários e professores, sendo os primeiros encarados como protagonistas activos das suas aprendizagens e devendo ser dotados de competências de literacia da informação, factor determinante para o seu sucesso. Quanto ao Bibliotecário, dotado de novas competências, entre as quais as tecnológicas, deve ser um facilitador do processo de formação para a literacia - preferencialmente integrada num projecto pedagógico e no currículo - articulando a sua acção educativa com estudantes e docentes. Corroborando a extensão educativa das Bibliotecas e aliando-a ao uso inevitável das novas tecnologias da informação e comunicação, sublinha-se o papel das Bibliotecas Digitais, que podem corresponder eficientemente aos anseios dos utilizadores no acesso a uma informação de qualidade, de forma cómoda, rápida, a baixo custo, com personalização dos serviços online, com inter-acção e socialização, através de ferramentas de edição colaborativa, típicas da Web 2.0.
Resumo:
O BIM – Building Information Modeling – é um conceito de controlo e gestão de informação desenvolvida, entre diferentes especialidades e intervenientes envolventes, durante o ciclo de vida das construções. A utilização das tecnologias BIM, no ramo da Engenharia Mecânica e Civil, tem sido uma aposta constante, e cada vez mais concisa, nos projetos de construção. A justificação para a adoção destas metodologias mais eficientes, em substituição dos processos convencionais, prende-se com o facto desses processos convencionais, ainda hoje, apresentarem muitas dificuldades e problemas associados, por exemplo, à falta de comunicação entre os intervenientes e ao ineficiente controlo na gestão de projetos. O objetivo desta dissertação centra-se na análise da interoperabilidade de softwares BIM, ou seja, na verificação da viabilidade de exportação de dados dos modelos produzidos, entre as ferramentas BIM. Para este campo de ação contribuirá a análise da passagem de informação, relativa ao modelo de uma Nave Industrial modelada, em alguns dos softwares BIM, correntemente mais utilizados. O conhecimento adquirido com a modelação do caso de estudo do presente trabalho irá permitir identificar algumas lacunas existentes ao nível da falta de recomendações práticas que sirvam de orientação na modelação recorrendo a ferramentas informáticas BIM-compatíveis. Assim, a base deste trabalho consiste na criação de uma série de recomendações ou de um roteiro de modelação em específico para a disciplina de estruturas enquanto área de aplicação concreta do estudo efetuado. Nesse sentido, a proposta deste trabalho é de apresentar alguns critérios de modelação onde são definidos os elementos a modelar em cada fase do projeto.
Resumo:
Atmospheric temperatures characterize Earth as a slow dynamics spatiotemporal system, revealing long-memory and complex behavior. Temperature time series of 54 worldwide geographic locations are considered as representative of the Earth weather dynamics. These data are then interpreted as the time evolution of a set of state space variables describing a complex system. The data are analyzed by means of multidimensional scaling (MDS), and the fractional state space portrait (fSSP). A centennial perspective covering the period from 1910 to 2012 allows MDS to identify similarities among different Earth’s locations. The multivariate mutual information is proposed to determine the “optimal” order of the time derivative for the fSSP representation. The fSSP emerges as a valuable alternative for visualizing system dynamics.
Resumo:
Esta dissertação incide sobre o estudo e análise de uma solução para a criação de um sistema de recomendação para uma comunidade de consumidores de media e no consequente desenvolvimento da mesma cujo âmbito inicial engloba consumidores de jogos, filmes e/ou séries, com o intuito de lhes proporcionar a oportunidade de partilharem experiências, bem como manterem um registo das mesmas. Com a informação adquirida, o sistema reúne condições para proceder a sugestões direccionadas a cada membro da comunidade. O sistema actualiza a sua informação mediante as acções e os dados fornecidos pelos membros, bem como pelo seu feedback às sugestões. Esta aprendizagem ao longo do tempo permite que as sugestões do sistema evoluam juntamente com a mudança de preferência dos membros ou se autocorrijam. O sistema toma iniciativa de sugerir mediante determinadas acções, mas também pode ser invocada uma sugestão directamente pelo utilizador, na medida em que este não precisa de esperar por sugestões, podendo pedir ao sistema que as forneça num determinado momento. Nos testes realizados foi possível apurar que o sistema de recomendação desenvolvido forneceu sugestões adequadas a cada utilizador específico, tomando em linha de conta as suas acções prévias. Para além deste facto, o sistema não forneceu qualquer sugestão quando o histórico destas tinha provado incomodar o utilizador.
Resumo:
É de senso comum que os nutrientes são fundamentais à vida e que a subnutrição leva à acumulação de gorduras que pode chegar a casos de obesidade, tendo como consequência inúmeras complicações de saúde. Diferentes estruturas neuroanatómicas do cérebro têm um papel essencial no comportamento digestivo. A ação de várias moléculas de sinalização (hormonas, neurotransmissores e neuropéptidos) resulta na regulação da ingestão de alimentos, sendo que, por exemplo, algumas hormonas podem aumentar a sensação de saciedade podendo diminuir o apetite e a ingestão calórica. A descoberta de hormonas envolvidas no balanço energético proporcionou novas oportunidades para desenvolver meios para o tratamento da obesidade. A transferência de medicação antiobesidade por via tópica ou transdérmica é um desafio pois a pele funciona como uma barreira natural e protetora. Sendo uma barreira com uma grande área de superfície e de fácil acessibilidade, a pele tem potencial interesse na libertação de fármacos específicos a cada terapia. Vários métodos têm sido estudados de modo a permitir um aumento da permeabilidade de moléculas terapêuticas para o interior da pele e através da pele. As biotecnologias transdérmicas são um campo de interesse cada vez maior, devido as aplicações dérmicas e farmacêuticas que lhes estão subjacentes. Existem vários modelos computacionais e matemáticos em uso que permite uma visão mais abrangente de puros dados experimentais e até mesmo permite a extrapolação prática de novas metodologias de difusão dérmica. Contudo, eles compreendem uma complexa variedade de teorias e suposições que atribuem a sua utilização para situações específicas. Este trabalho, primeiramente analisa, de forma extensiva, as várias metodologias teóricas para o estudo da difusão dérmica e sistematiza as suas características, realizando depois a fase prévia duma nova abordagem computacional para o estudo da difusão dérmica, que determina características microscópicas de moléculas capazes de provocar a perda de peso, tais como a Leptina e/ou os seus agonistas.
Resumo:
O projeto foi realizado na Toyota (divisão fabril de Ovar), no ano letivo 2014/2015, teve por base um estágio extracurricular que foi realizado para que desta forma tomasse contacto com uma realidade concreta e absoluta no contexto empresarial. O estágio serviu, principalmente, como uma experiência na compreensão do funcionamento de uma indústria de automóveis. Este projeto desenvolve-se no âmbito do 2ºano do Mestrado de Logística e apresenta os contributos desenvolvidos no departamento de logística para a reorganização da mesma para a produção de um novo modelo automóvel. Atualmente, a Toyota, para os modelos de automóveis que produz, recebe os componentes em CKD (Completed Knocked Down) provenientes do Japão em lotes de cinco unidades. Estes lotes são armazenados no armazém, de onde só saem quando for dada ordem para serem produzidos. Cada lote tem várias caixas, que são colocadas à vez numa zona comum de abertura. São retidos os componentes das caixas CKD e colocados nos transportadores próprios dos postos correspondentes (supermercado de linha). Isto significa que sempre que é solicitado uma viatura de um determinado lote, são obrigados a produzir as cinco unidades. Isto significa que as restantes unidades do lote terão que ficar em parque aberto a aguardar venda futura, para além de ter um stock desnecessário, estas unidades ficam vulneráveis e sofrem desgaste, pois estão expostas à intempérie, causando graves problemas de qualidade e respetivos custos associados. Recentemente, foi decidida a produção do modelo Land Cruiser 70 na unidade industrial de Ovar, Portugal, o que obrigou a uma reorganização da produção e processos logísticos para a sua produção. Os objetivos que a empresa pretende com a entrada de um novo projeto Land Cruiser 70, são os seguintes: Alterar o sistema de abastecimento, implementando o abastecimento unitário em toda a fábrica para o novo modelo, garantindo o “one by one production”; Definir o funcionamento do processo logístico desde a chegada dos componentes até ficarem disponíveis no supermercado de linha. Para isso será necessário dimensionar armazém e zona de abertura, definir layouts e quantidade de stocks, bem como definir sistemas de comunicação entre abertura e supermercado; Verificar as peças que vão fazer parte do chassi por posto e contabilizar os dolly´s1 necessários; Fazer o layout de abastecimento da linha do chassi; Calcular o tempo de abertura, de abastecimento e de picking do chassi e de triming. Este projeto tem em conta a política de melhoria contínua de forma a conseguir satisfazer o cliente (ser eficaz) utilizando cada vez menos recursos quer físicos quer humanos (ser eficiente, detetar e eliminar os desperdícios). O presente projeto foi inserido na equipa de melhoria contínua da logística, maioritariamente no chassi. Em termos globais, os objetivos propostos neste estágio foram atingidos com êxito.
Resumo:
A informação contabilística constitui um dos pilares fundamentais para a formação de juízos e tomada de decisões empresariais e, para isso, deve cumprir os requisitos de qualidade, objectividade, transparência, rigor, responsabilidade e independência. Para o efeito, a informação é elaborada com base em políticas e critérios contabilísticos, conceitos e pressupostos subjacentes à “Estrutura Conceptual” dos normativos emitidos por organismos nacionais e internacionais, e em princípios sustentados no “Governo das Sociedades” e respectivas recomendações, considerando as necessidades dos seus utilizadores. O presente estudo tem por objectivo explorar a relação entre a Informação Financeira Divulgada e o Modelo de Governação das Sociedades e fornecer uma melhor e mais profunda compreensão das características das sociedades que influenciam a divulgação. Neste estudo, foi utilizada uma amostra de empresas portuguesas não financeiras, emitentes de acções, que se encontram admitidas a negociação no mercado de cotações oficiais da New York Stock Exchange, adiante designada por NYSE Euronext Lisbon, no período de 2010 a 2012. Os elementos foram recolhidos através da leitura e análise dos Relatórios e Contas Anuais publicados e por consulta da base de dados DataStream. Os dados obtidos foram analisados através de modelos de regressão linear múltipla, considerando o modelo de dados em painel, tendo sido utilizado o programa de estatística Gnu Regression, Econometrics and Time- Series Library (GRETL), versão 1.9.92 (Sep 20, 2014), embora, para a análise das correlações, tenha sido utilizado, também, o programa estatístico Statistical Package for the Social Sciences, adiante denominado IBM SPSS Statistics, versão 19. A análise dos resultados indica que as principais determinantes subjacentes à divulgação relacionada com o índice de cumprimento sobre o Governo das Sociedades são as variáveis explicativas relacionadas com: (i) dimensão da empresa; (ii) endividamento; (iii) concentração accionista; (iv) negociabilidade; (v) percentagem de acções detidas pelos administradores executivos; (vi) rendibilidade do investimento total; e (vii) remuneração dos administradores não executivos. Os testes efectuados mostram que os resultados alcançados são robustos para modelar especificações e problemas de existência de multicolinearidade. O software utiliza o método de Arellano (2004) com a finalidade de corrigir o problema de possibilidade de existência de heteroscedasticidade e de autocorrelação. Nesta base, verificaram-se todas as situações que poderiam criar obstáculos e causar enviesamento nos estimadores e definições das variáveis. Relativamente ao índice global de divulgação dos riscos e incertezas, concluiu-se que é provavelmente determinado por diferentes variáveis. Esta investigação enriquece a discussão sobre as relações entre a divulgação da informação e a estrutura do Governo das Sociedades. Assim, o estudo pode ser útil para accionistas, administradores, credores e outros investidores, quanto à reflexão da adequação da informação divulgada nos relatórios e contas anuais, com a finalidade da tomada de decisões idóneas e fundamentadas. Porém, é essencial que os reguladores incentivem as empresas a adequarem melhor as práticas de governo e a criarem mais mecanismos de forma a alcançar um maior nível de independência e uma adopção mais ajustada das recomendações sobre o Governo das Sociedades.
Resumo:
O uso de ligações adesivas aumentou significativamente nos últimos anos e é hoje em dia uma técnica de ligação dominante na indústria aeronáutica e automóvel. As ligações adesivas visam substituir os métodos tradicionais de fixação mecânicos na união de estruturas. A melhoria ao longo dos anos de vários modelos de previsão de dano, nomeadamente através do Método de Elementos Finitos (MEF), tem ajudado ao desenvolvimento desta técnica de ligação. Os Modelos de Dano coesivo (MDC), usados em conjunto com MEF, são uma ferramenta viável para a previsão de resistência de juntas adesivas. Os MDC combinam critérios da resistência dos materiais para a iniciação do dano e conceitos da mecânica da fratura para a propagação da fenda. Existem diversas formas de leis coesivas possíveis de aplicar em simulações por MDC, em função do comportamento expectável dos materiais que estão a ser simulados. Neste trabalho, estudou-se numericamente o efeito de diversas formas de leis coesivas na previsão no comportamento de juntas adesivas, nomeadamente nas curvas forçadeslocamento (P-) de ensaios Double-Cantilever Beam para caracterização à tração e ensaios End-Notched Flexure para caraterização ao corte. Também se estudou a influência dos parâmetros coesivos à tração e corte nas curvas P- dos referidos ensaios. Para o Araldite®AV138 à tração e ao corte, a lei triangular é a que melhor prevê o comportamento do adesivo. Para a previsão da resistência de ambos os adesivos Araldite® 2015 e SikaForce® 7752, a lei trapezoidal é a que melhor se adequa, confirmando assim que esta lei é a que melhor caracteriza o comportamento de dano de adesivos tipicamente dúcteis. O estudo dos parâmetros revelou influência distinta na previsão do comportamento das juntas, embora com bastantes semelhanças entre os diferentes tipos de adesivos.
Resumo:
Ao longo destes últimos anos as ligações adesivas têm vindo a verificar um aumento progressivo em aplicações estruturais em detrimento das ligações mecânicas convencionais. Esta alteração de paradigma deve-se às vantagens que as juntas adesivas possuem relativamente aos outros métodos de ligação. A mecânica da fratura e os Modelos de Dano Coesivo (MDC) são critérios comuns para prever a resistência em juntas adesivas e usam como parâmetros fundamentais as taxas de libertação de energia. Pelo facto do ensaio 4-Point End Notched Flexure (4-ENF), aplicado em juntas adesivas, ainda estar pouco estudado é de grande relevância um estudo acerca da sua viabilidade para a determinação da taxa crítica de libertação de energia de deformação ao corte (GIIc). Esta dissertação tem como objetivo principal efetuar uma comparação entre os métodos End- Notched Flexure (ENF) e 4-ENF na determinação de GIIc em juntas adesivas. Para tal foram utilizados 3 adesivos: Araldite® AV138, Araldite® 2015 e SikaForce® 7752. O trabalho experimental passou pela conceção e fabrico de uma ferramenta para realização do ensaio 4-ENF, seguindo-se o fabrico e a preparação dos provetes para os ensaios. Pelo facto do ensaio 4-ENF ainda se encontrar pouco divulgado em juntas adesivas, e não se encontrar normalizado, uma parte importante do trabalho passou pela pesquisa e análise em trabalhos de investigação e artigos científicos. A análise dos resultados foi realizada por comparação direta dos valores de GIIc com os resultados obtidos no ensaio ENF, sendo realizada por série de adesivo, através da comparação das curvas P-δ e curvas-R. Como resultado verificou-se que o ensaio 4-ENF em ligações adesivas não é o mais versátil para a determinação do valor de GIIc, e que apenas um método de obtenção de GIIc é viável. Este método é baseado na medição do comprimento de fenda (a). Ficou evidenciado que o ensaio ENF, devido a ser um ensaio normalizado, por apresentar um setup mais simples e por apresentar uma maior disponibilidade de métodos para a determinação do valor de GIIc, é o mais recomendado. Conclui-se assim que o ensaio 4-ENF, embora sendo uma alternativa ao ensaio ENF, tem aplicação mais limitada.