1000 resultados para suporte emocional, suporte prático


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O recurso à monitorização do comportamento dos programas durante a execução é necessário em diversos contextos de aplicação. Por exemplo, para verificar a utilização dos recursos computacionais durante a execução, para calcular métricas que permitam melhor definir o perfil da aplicação ou para melhor identificar em que pontos da execução estão as causas de desvios do comportamento desejado de um programa e, noutros casos, para controlar a configuração da aplicação ou do sistema que suporta a sua execução. Esta técnica tem sido aplicada, quer no caso de programas sequenciais, quer se trate de programas distribuídos. Em particular, no caso de computações paralelas, dada a complexidade devida ao seu não determinismo, estas técnicas têm sido a melhor fonte de informação para compreender a execução da aplicação, quer em termos da sua correcção, quer na avaliação do seu desempenho e utilização dos recursos computacionais. As principais dificuldades no desenvolvimento e na adopção de ferramentas de monitorização, prendem-se com a complexidade dos sistemas de computação paralela e distribuída e com a necessidade de desenvolver soluções específicas para cada plataforma, para cada arquitectura e para cada objectivo. No entanto existem funcionalidades genéricas que, se presentes em todos os casos, podem ajudar ao desenvolvimento de novas ferramentas e à sua adaptação a diferentes ambientes computacionais. Esta dissertação propõe um modelo para suportar a observação e o controlo de aplicações paralelas e distribuídas (DAMS - Distributed ApplicationsMonitoring System). O modelo define uma arquitectura abstracta de monitorização baseada num núcleo mínimo sobre o qual assentam conjuntos de serviços que realizam as funcionalidades pretendidas em cada cenário de utilização. A sua organização em camadas de abstracção e a capacidade de extensão modular, permitem suportar o desenvolvimento de conjuntos de funcionalidades que podem ser partilhadas por distintas ferramentas. Por outro lado, o modelo proposto facilita o desenvolvimento de ferramentas de observação e controlo, sobre diferentes plataformas de suporte à execução. Nesta dissertação, são apresentados exemplos da utilização do modelo e da infraestrutura que o suporta, em diversos cenários de observação e controlo. Descreve-se também a experimentação realizada, com base em protótipos desenvolvidos sobre duas plataformas computacionais distintas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescente consumo de materiais plásticos, a maioria produzidos a partir de matérias-primas derivadas do petróleo, um recurso não renovável, e a deposição dos seus resíduos não biodegradáveis na natureza, colocam problemas ambientais de solução premente. Este trabalho teve como objectivo o estudo de um processo de reciclagem química de resíduos plásticos, a despolimerização catalítica de polimetacrilato de metilo (PMMA), vulgarmente designado por vidro acrílico, com vista à obtenção do seu monómero puro, metacrilato de metilo (MMA), para posterior produção de PMMA. A utilização de catalisadores permite diminuir a temperatura do processo de despolimerização térmica, pirólise, e modificar a selectividade relativamente aos produtos desejados. A pirólise de PMMA tem sido estudada a temperaturas de 450-590 ºC. Neste caso foi realizado, a 320 ºC, num reactor de leito fluidizado, um estudo prévio do efeito de diversos metais, cobre, níquel, cério, césio e lantânio suportados numa argila pilarizada calcinada a três temperaturas diferentes, 300 ºC, 500 ºC e 700 ºC. Foram testados polímero puro e resíduo de polímero, proveniente da reciclagem automóvel (vidros e partes ópticas). Em todas as reacções realizadas, que atingiram conversões elevadas, foi obtido maioritariamente MMA, com selectividades que variaram entre 97% e 99%, sendo formadas quantidades vestigiárias de ácido acrílico e ácido metacrílico. Foi verificado que quase todos os materiais testados promovem um efeito catalítico considerável à temperatura de 320 ºC. As argilas pilarizadas não impregnadas, que serviram como suporte, apresentaram uma actividade catalítica muito significativa. Relativamente às temperaturas de calcinação observou-se que a argila calcinada a 300 ºC é a que apresenta melhores resultados, quer em termos de conversão final, como de velocidade inicial e selectividade para o monómero. Os aditivos contidos no resíduo de PMMA não apresentaram um efeito de inibição significativo na actividade dos catalisadores testados. Em consequência, conclui-se que a utilização de argilas pilarizadas à temperatura de 320 ºC(mais baixa que as aplicadas na pirólise térmica de PMMA, iguais ou superiores a 450 ºC) constitui um processo, que associado a uma considerável poupança de energia, se torna uma alternativa bastante viável à despolimerização térmica de resíduos de polimetacrilato de metilo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As argamassas são materiais de construção porosos utilizados em diversos tipos de aplicação, por vezes muito distintos. A compreensão do seu comportamento, face às diversas solicitações a que podem estar sujeitas, é determinante para que possam efectivamente ser cumpridas as exigências que, em cada caso, sejam definidas. O desempenho das argamassas depende em grande medida das propriedades da sua microestrutura que, por sua vez, são condicionadas por um conjunto de cinco aspectos principais: os componentes, o traço, a cura, os procedimentos de aplicação e o tipo de suporte. O objectivo desta tese foi o de avaliar a forma como se relacionam o tipo de ligante e a granulometria das areias, as propriedades da microestrutura morfológica e o comportamento de argamassas. Foram globalmente preparadas cinquenta composições de argamassa que incluíram quatro tipos de ligante (cal aérea, cal hidráulica, cimento branco e um ligante misto composto por cal aérea e cimento Portland corrente) e dezasseis areias de granulometria distinta. A análise dos resultados obtidos permitiu o estabelecimento de um conjunto de conclusões que se julgam relevantes. A dimensão das partículas e o volume de vazios das areias desempenham um papel determinante nas propriedades da microestrutura morfológica das argamassas, i.e. na dimensão, na quantidade e na forma dos poros. Por outro lado, a retracção por secagem inerente aos processos de endurecimento dos ligantes aéreos e dos ligantes hidráulicos induz uma distinção de fundo na microestrutura das argamassas fabricadas com uns e com outros, que se traduz por diferenças na conectividade da rede porosa. Este facto dá origem a comportamentos diferenciados, sobretudo no que diz respeito à absorção de água por capilaridade e às resistências mecânicas. A análise das areias conduziu à definição de novos parâmetros numéricos que se julga contribuírem para uma caracterização da granulometria mais detalhada face ao que tem sido prática corrente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação faz-se a apresentação dos trabalhos elaborados conducentes à realização de provas na Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia no ramo de Engenharia Electrotécnica, na especialidade de Sistemas de Informação Industriais, para obtenção do grau de Doutor. A tese defendida consiste na proposta de um enquadramento global de suporte ao processo de recolha e catalogação dos dados disponibilizados na Web por forma a permitir uma maior eficácia e melhor desempenho na sua exploração. O enquadramento global assenta nos seguintes pilares: i) uma metodologia geral; ii) uma arquitectura de referência; iii) uma metodologia específica de suporte à derivação de sistemas particulares e; iv) a operacionalização da arquitectura de referência. A metodologia geral está centrada no utilizador tendo por objectivo simplificar a recolha e catalogação dos dados electrónicos e viabilizando a personalização da Web pela construção de catálogos dinâmicos. A arquitectura de referência recorre à utilização de catálogos dinâmicos, sistemas de multiagentes inteligentes, ontologias e métodos de aprendizagem em texto, por contraste com os métodos habitualmente utilizados nos portais de recolha de dados. A metodologia específica de suporte à derivação de sistemas particulares possibilita uma aproximação sistemática à instalação da arquitectura, propondo um conjunto de passos que permitem capturar e configurar as necessidades do utilizador. Finalmente, a operacionalização da arquitectura de referência origina a construção de um protótipo composto por dois sistemas-base: o Sistema de Catalogação e o Sistema Interactivo de Apoio à Derivação de Sistemas Particulares. O Sistema de Catalogação é o sistema que permite o armazenamento e a consulta dos dados recolhidos através das pesquisas previamente efectuadas. O Sistema de Apoio à Derivação de Sistemas Particulares, permite a personalização do Sistema de Catalogação, pela definição de regras e SAD específicos, dedicados a cada caso concreto. Sumariamente, os obstáculos mais relevantes, abordados no decurso dos trabalhos, foram: • a coexistência de diversos formatos de dados na Web; • a capacidade de processamento dos dados, desde a filtragem de documentos tendo por base a sua relevância, passando pela identificação dos conceitos e sua posterior classificação; • a formalização do conhecimento com vista à adopção de uma terminologia comum; • a natureza do problema distribuído, complexo, descentralizado e com reduzida estruturação. Este documento está organizado em diversos capítulos e cada capítulo está dividido em várias secções. O primeiro capítulo apresenta a inovação e os objectivos genéricos do enquadramento global. O segundo capítulo descreve o estado da arte de um conjunto de assuntos essenciais para o desenrolar dos trabalhos. O terceiro capítulo apresenta, em detalhe, o enquadramento global e a arquitectura proposta. O quarto capítulo descreve a metodologia de derivação de sistemas particulares. O quinto capítulo apresenta o estudo de caso e os resultados obtidos que visam validar a tese defendida. Finalmente, o último capítulo apresenta as conclusões e trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho, cujo objectivo centra-se no desenvolvimento de um sistema primário para medição da densidade absoluta de líquidos, compara resultados obtidos através de diferentes metodologias, no que diz respeito ao valor da incerteza, demonstrando assim, qual o melhor método de pesagem a utilizar. A medição da densidade de líquidos efectua-se através do método da pesagem hidrostática, que consiste em pesar uma esfera de silicone fora do líquido (pesagem no ar) e de seguida pesá-la em suspensão num líquido. Para tal, a balança hidrostática possui um dispositivo que suspende a esfera para a sua imersão no líquido. Também é usado o densímetro digital como método de comparação com a pesagem hidrostática. O padrão de densidade utilizado foi a esfera de silicone pois os cristais de silicone são os melhores materiais, devido à elevada estabilidade na determinação da densidade. A densidade do ar é uma das magnitudes de influência mais comum em metrologia, influenciando diversas áreas de medida, incluindo massa, densidade do líquido, volume, entre outros. Por isso, foi importante determinar a densidade do ar medindo a temperatura, a pressão e a humidade relativa e aplicando a equação CIPM. Para medições de densidade por pesagem hidrostática, a água destilada é o líquido normalmente usado. A densidade da água, ρL, foi determinada pela fórmula M. Tanaka, Fujii e Masui, a uma temperatura de 20⁰C, aproximadamente. Após a determinação da densidade, foi estimada a incerteza associada ao valor da mensuranda, pois é a incerteza que define a qualidade do resultado da densidade. A validação de um resultado, como suporte à decisão, é impossível sem o conhecimento da incerteza associada ao próprio resultado. A fonte de incerteza que mais contribuiu para a incerteza global da densidade do líquido foi a massa da esfera. Considerando que o balanço de incertezas é influenciado por diversos factores inerentes ao próprio método, realizou-se uma abordagem ao desenho de experiências, através da análise de variância (ANOVA), cuja técnica permite determinar quais os parâmetros significativos. A fonte de incerteza que mais contribuiu para a incerteza global da densidade do líquido foi “Entre Ensaios”. Através do método ANOVA, verifica-se também que a amostra líquida é estável e homogénea devido a apresentar uma incerteza pequena.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização de Edificações

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização de Edificações

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Controlo de Gestão e dos Negócios

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório de estágio apresentado à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Gestão Estratégica das Relações Públicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mesquita, Ana Rita Biscaia de Melo - O papel da Televisão interna na relação com os colaboradores da TAP Portugal. Lisboa: Escola Superior de Comunicação Social, 2014. Relatório de estágio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório Final de Estágio apresentado à Escola Superior de Dança com vista à obtenção do Grau de Mestre em Ensino de Dança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório Final de Estágio apresentado à Escola Superior de Dança, com vista à obtenção do grau de Mestre em Ensino de Dança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório Final de Estágio apresentado à Escola Superior de Dança, com vista à obtenção do grau de Mestre em Ensino de Dança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório Final de Estágio apresentado à Escola Superior de Dança, com vista à obtenção do grau de Mestre em Ensino de Dança.