56 resultados para Modelos bayesianos hierárquicos espaço-temporais


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectivo: A realização deste estudo tem como objectivo identificar a capacidade de modificação dos parâmetros do ciclo da marcha após intervenção a nível dos componentes do membro inferior e uma abordagem na reeducação da marcha no tapete rolante (treadmill). Métodos: Este estudo é um estudo de série de casos, constituído por três indivíduos com sequelas de Acidente Vascular Encefálico (AVE), com comprometimento a nível do membro inferior, capazes de realizar marcha. Os instrumentos de avaliação foram o teste de marcha de 10 metros (10-M), o teste de marcha de 6 minutos (6-Min) e o Time Up and Go (TUG). Os indivíduos receberam intervenção da fisioterapia baseada no conceito de Bobath e na reeducação de marcha no treadmill. Resultados: Após a intervenção verificou-se um aumento da velocidade e cadência da marcha, assim como uma maior tolerância e resistência na capacidade da sua realização. Conclusão: A intervenção realizada a nível dos componentes do membro inferior e na reeducação da marcha utilizando o treadmill permitiu modificar alguns parâmetros espaço-temporais do ciclo da marcha, aumentando a velocidade e cadência da marcha. A utilização conjunta de diferentes abordagens na intervenção ao indivíduo com sequelas de AVE deve ser sempre considerada uma vez que pode trazer benefícios na sua independência e qualidade de vida.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artigo tem por objectivo averiguar se uma redução nos impostos sobre o trabalho, capital e consumo poderão afectar permanentemente o crescimento económico, validando o paradigma do crescimento endógeno ou, se pelo contrário, afectam apenas o nível de output (teoria do crescimento exógeno). Recorrendo às taxas efectivas de impostos sobre as funções económicas estimadas por Martinez-Mongay (2000) e à estimação de modelos dinâmicos de séries temporais, que permitem estudar os efeitos de curto e de longo prazo, os resultados obtidos para 14 Estados-Membros da União Europeia dos 15, no período 1970-2000, sugerem a validação do paradigma de crescimento endógeno. Em particular, a redução dos impostos sobre o trabalho e o capital poderia estimular o crescimento económico de longo prazo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Declaração de Bolonha (1999) obrigou a mudanças várias, reconfigurando os modelos formativos no espaço europeu do ensino superior, até 2010. A partir de 2006, em Portugal, com a criação e adequação dos cursos superiores existentes ao modelo de Bolonha, verificou-se uma generalizada redução da duração média dos diferentes ciclos de estudo e a definição de competências gerais e específicas para os cursos e estudantes. Reflecte-se sobre a importância da literacia da informação, conceito evolutivo e abrangente, que se pode traduzir, sumariamente, em saber quando e porquê se tem uma necessidade informacional, onde encontrar a informação, como avaliá-la, usá-la e comunicá-la de forma ética, incluindo as competências tecnológicas, definição que se inscreve na interdisciplinar Ciência da Informação e no comportamento informacional. Destaca-se a vantagem de uma formação para a literacia da informação no ensino superior, a qual contribuirá, certamente, para dotar os estudantes das referidas competências e melhorá-las. Defende-se a necessidade de uma desejável inter-acção entre múltiplos agentes educativos, com destaque para a trilogia estudantes, bibliotecários e professores, sendo os primeiros encarados como protagonistas activos das suas aprendizagens e devendo ser dotados de competências de literacia da informação, factor determinante para o seu sucesso. Quanto ao Bibliotecário, dotado de novas competências, entre as quais as tecnológicas, deve ser um facilitador do processo de formação para a literacia - preferencialmente integrada num projecto pedagógico e no currículo - articulando a sua acção educativa com estudantes e docentes. Corroborando a extensão educativa das Bibliotecas e aliando-a ao uso inevitável das novas tecnologias da informação e comunicação, sublinha-se o papel das Bibliotecas Digitais, que podem corresponder eficientemente aos anseios dos utilizadores no acesso a uma informação de qualidade, de forma cómoda, rápida, a baixo custo, com personalização dos serviços online, com inter-acção e socialização, através de ferramentas de edição colaborativa, típicas da Web 2.0.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nas últimas décadas, o estudo das séries temporais de contagem univariadas tem sido objecto de interesse crescente na literatura. Uma das classes de modelos mais populares é a dos modelos auto-regressivos e médias móveis de valor inteiro não-negativo, INARMA, obtida através da substituição da multiplicação por um operador aleatório, chamado thinning, nos modelos ARMA convencionais. Os modelos INAR para séries de contagem univariadas têm sido amplamente estudados na literatura no que diz respeito quer às suas propriedades probabilísticas quer à inferência estatística. Por outro lado, a classe alargada de modelos de médias móveis para séries de valor inteiro, INMA, em que as operações thinning em instantes diferentes são dependentes entre si, não tem sido objecto de tanta atenção. De facto os modelos INMA não são Markovianos pelo que a inferência estatística apresenta dificuldades adicionais. Actualmente o interesse na análise de séries temporais de contagem centra-se em modelos e métodos para séries multivariadas. Neste trabalho, consideram-se os modelos INMA bivariados propostos por Torres et al. (2012). Nesta classe alargada de modelos bivariados INMA, a estrutura de dependência entre as duas séries temporais é introduzia pela dependência entre os dois processos de chegada enquanto que a dependência em cada série é definida pela dependência de operações thinning em instantes diferentes. Consideram-se estimadores baseados em momentos: método dos momentos (MM), método dos momentos generalizados (GMM) e método dos momentos eficiente (EMM), assim como estimadores baseados na função geradora de probabilidades.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Logística Orientada por: Professora Doutora Patrícia Alexandra Gregório Ramos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Logística

Relevância:

30.00% 30.00%

Publicador:

Resumo:

WWW is a huge, open, heterogeneous system, however its contents data is mainly human oriented. The Semantic Web needs to assure that data is readable and “understandable” to intelligent software agents, though the use of explicit and formal semantics. Ontologies constitute a privileged artifact for capturing the semantic of the WWW data. Temporal and spatial dimensions are transversal to the generality of knowledge domains and therefore are fundamental for the reasoning process of software agents. Representing temporal/spatial evolution of concepts and their relations in OWL (W3C standard for ontologies) it is not straightforward. Although proposed several strategies to tackle this problem but there is still no formal and standard approach. This work main goal consists of development of methods/tools to support the engineering of temporal and spatial aspects in intelligent systems through the use of OWL ontologies. An existing method for ontology engineering, Fonte was used as framework for the development of this work. As main contributions of this work Fonte was re-engineered in order to: i) support the spatial dimension; ii) work with OWL Ontologies; iii) and support the application of Ontology Design Patterns. Finally, the capabilities of the proposed approach were demonstrated by engineering time and space in a demo ontology about football.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Orientador: Doutor, José Manuel Veiga Pereira

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tecido adiposo é um órgão endócrino dinâmico, secretando factores importantes na regulação do metabolismo, fluxo vascular sanguíneo e linfático, e função imunológica, entre outros. Em caso de acumulação de tecido adiposo por ingestão de uma dieta gorda, ou por disfunção metabólica, os adipócitos podem desencadear uma reacção inflamatória por falha na drenagem linfática, acumulando-se mediadores inflamatórios, os quais potenciam a propagação da reacção. Assim, questiona-se uma potencial associação entre o aumento de tecido adiposo na obesidade, hipóxia adipocitária e estimulação da linfangiogénese. Além disso, a expressão de adipocinas varia de acordo com a distribuição do tecido adiposo (subcutâneo, TAS e visceral, TAV). Deste modo, pretende-se com este estudo contribuir para o aumento do conhecimento sobre os complexos mecanismos moleculares subjacentes à linfangiogénese. Ensaios com ratinhos da estirpe C57Bl/6J (modelo de obesidade) e BALB/c (modelo de asma e obesidade), divididos em grupos submetidos a dieta normal e dieta rica em gordura. Avaliação semi-quantitativa da expressão tecidular de LYVE-1 (marcador da linfangiogénese) por imunohistoquímica em material embebido em parafina, no TAS e TAV, e cromatografia líquida de ultra-performance acoplada de espectrometria de massa (UPLC-MS) para análise da expressão plasmática de ceramida e esfingosina-1-fosfato (S1P). No modelo de obesidade observou- -se diminuição do número de vasos linfáticos e expressão de LYVE-1 ao longo do tempo no TAV, e aumento de ambos os parâmetros e hipertrofia adipocitária no TAS. As concentrações de ceramida e S1P corroboram a existência de um processo inflamatório nos ratinhos em estudo, ainda que numa fase muito inicial. No modelo de asma e obesidade, após 17 semanas de tratamento, observou-se incremento da linfangiogénese no TAV, mas não no TAS. A resposta inflamatória avaliada através dos diferentes parâmetros permite afirmar que num estadio inicial de obesidade a proliferação linfática poderá estar a ser retardada pela hipertrofia adipocitária. A libertação de adipocinas será observada apenas numa fase posterior, desencadeando todo o processo inflamatório que incrementará a proliferação linfática. Adicionalmente, é possível sugerir que a maior pressão à qual o TAV se encontra sujeito não favorece a proliferação linfática, pelo menos num estadio incial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução PARTE 1 - Noções gerais e metodologias de medição baseadas nos diferenciais 1.1. Noção de risco 1.2. Principais riscos na actividade bancária 1.3. Modelos de quantificação do risco da taxa de juro 1.4. Modelos para quantificar o risco de reinvestimento 1.5. O modelo de diferencial de duração (DD) 1.6. Modelos para quantificar o risco de preço 1.7. Diferencial de duração da situação líquida 1.8. Vantagens/desvantagens dos modelos de duração (resultado e situação líquida) 1.9. Perspectivas e conclusão sobre os Modelos de Diferencial de Fundos e Duração PARTE II - Conceito de VAR 2.1 A noção de VAR (Valor em Risco) 2.2 Conceitos-chave dos modelos VAR 2.3 Fórmula de cálculo da duração modificada 2.4 A importância da duração para determinar a sensibilidade da taxa de juro 2.5 A problemática da convexidade 2.6 O conceitos de volatilidade 2.7 A agregação dos riscos 2.8 O tratamento do VAR com a matriz de correlação do andamento das taxas de juro 2.9 Esquemas sequenciais de cálculo da volatilidade preço - taxa de juro e VAR PARTE III - Casos práticos de VAR 3.1 As relações entre as taxas a prazo (forward) e as taxas à vista (spot) 3.2 Desenvolvimento de um caso prático 3.3 Cálculo do diferencial de duração e do VAR aplicado à situação líquida 3.4 Admissão de pressupostos 3.5 Os diferentes VAR´s 3.6 A importância do VAR no contexto de gestão de risco numa instituição 3.7 Os modelos de simulação estática e dinâmica PARTE IV - Situações especiais 4.1 O tratamento dos FRA´s e futuros 4.2 O tratamento das opções 4.3 O tratamento dos swap´s taxa de juro 4.4 A aplicação do modelo VAR aos riscos taxa de juro e cambial 4.5 A utilização dos modelos VAR na afectação do capital (RAROC) 4.6 A análise da instruçaõ nº 19/2005 ANEXOS Anexo 1 - Instrução nº 19/2005: risco de taxa de juro da carteira bancária Anexo 2 - Instrução nº 72/96: Princípios orientadores para ocontrolo do risco da taxa de juro Anexo 3 - Anexo V do Aviso nº 7/96 Conclusão Índice dos Quadros Bibliografia

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Empreendedorismo e Internacionalização, sob orientação de Doutora Deolinda Meira e Mestre Anabela Ribeiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescimento do sector não lucrativo, por força da criação de novas organizações sem fins lucrativos, tem-se acentuado nos últimos anos tentando dar resposta ao serviço público que a comunidade exige e que o Estado não tem sabido dar resposta. O sector não lucrativo, ou terceiro sector, realiza funções sociais ou culturais relevantes para a sociedade sem o objectivo de produzir lucros. Em Portugal não existem, para este sector, padrões específicos para os modelos de gestão nem tipologias de informação a utilizar pelos seus stakeholders e, por isso, utilizam-se os mesmos moldes do sector empresarial, cumprindo assim a real consistência do isomorfismo mimético. Existe claramente uma diferença entre os objectivos da informação financeira e não financeira nas organizações lucrativas e nas não lucrativas, e essa destrinça tem a ver directamente com os tipos de destinatários e utilizadores da informação. A abordagem às práticas de corporate governance é uma incontornável realidade no mundo organizacional actual face ao crescente aumento das preocupações das organizações enquanto agentes económicos, sociais e políticos. A sociedade exige às organizações não lucrativas transparência e accountability da informação financeira e não financeira (Carvalho & Blanco, 2007a)) e por isso a adopção de práticas de governance pode trazer benefícios na solução de alguns problemas de gestão. Esta investigação pretende, assim, fazer uma revisão de literatura sobre os modelos de governance, numa abordagem à gestão das organizações sem fins lucrativos de âmbito local, contribuindo assim para a possível definição de um modelo de governance próprio para o sector não lucrativo português.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As organizações de saúde são muito particulares devido à sua missão, aos recursos que mobilizam, aos processos que dinamizam, à produção que realizam e ainda à envolvente externa onde se inserem (Reis, 2007). Os sucessivos esforços que têm sido utilizados na reforma na saúde, sobretudo a partir de 1988, têm sido uma constante da agenda política na tentativa de aumentar a eficiência dos serviços prestados, a efetividade dos resultados e a responsabilidade dos profissionais. A empresarialização do Hospital de São João operada a partir de 2006, com a publicação do Dec.Lei 233/05 de 29 de Dezembro, tornou como imperativo estratégico a alteração profunda do modelo de gestão até então praticado. Este era caracterizado por uma forte componente administrativa, de cariz burocrática, e sob ponto de vista económico assentava em sucessivos deficits e no permanente aumento e descontrolo da despesa. Tomando como pressuposto que a única via de modificar esse padrão passava entre outras medidas pela efetivação de uma gestão descentralizada, vieram a ser criadas seis estruturas intermédias de gestão designadas por “Unidades Autónomas de Gestão”. Estas tinham como objetivo aumentar o valor em saúde, melhorar a gestão dos serviços clínicos, potenciando desse modo a qualidade e efetividade dos cuidados prestados, bem como a eficiência dos recursos utilizados. Neste sentido, o propósito deste trabalho centra-se em demonstrar que a implementação de um modelo de gestão descentralizado como é o caso da Unidade Autónoma de Gestão de Cirurgia, doravante designada por UAGC, constituiu uma opção gestionária eficaz e altamente promissora na governação clínica, desmistificando o mito da “ingovernabilidade dos hospitais centrais” como era apanágio do Hospital S. João. Cremos que a descentralização da gestão enquanto forma de reengenharia da organização interna dos hospitais constitui um importante instrumento no sentido de orientar e motivar o comportamento dos gestores (sejam eles clínicos ou não) para o cumprimento dos objetivos institucionais, através da implementação de políticas de desconcentração de poderes, competências e responsabilidades. Embora existam outros modelos de organização ao nível da gestão intermédia, na verdade, a implementação destas estruturas descentralizadas traduziu-se numa inegável mais valia organizativa e gestionária do CHSJ. como os indicadores de desempenho mais à frente tentarão demonstrar. Temos consciência que este modelo está longe de ser perfeito, e que por vezes não é corretamente entendido pelos profissionais, que o encaram como uma necessidade de cariz exclusivamente económica. Porém o caminho já percorrido pela UAGC ao longo destes 5 anos permite-nos afirmar que é possível “fazer mais” com “os mesmos recursos”, desde que exista uma clara estratégia de ação suportada em programas concretos e exequíveis, praticados num clima social participado e responsabilizante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A teoria da carteira de Harry Markowitz, originalmente publicada em 1952 no Journal of Finance, "Portfolio Selection", desenvolveu um método de solução geral do problema da estrutura das carteiras, que engloba o tratamento quantificado do risco. Propõe a determinação de um conjunto de carteiras eficientes empregando unicamente os conceitos de média para a rentabilidade que se espera obter e de variância (ou desvio padrão) para a incerteza associada a essa rentabilidade, e daí a denominação de média-variância à análise de Markowitz. Chamou também a atenção para a diversificação das carteiras, mostrando como um investidor pode reduzir o desvio padrão da rendibilidade da carteira através da escolha de acções cujas variações não sejam exactamente paralelas.