22 resultados para Modelo Nelson-Siegel Dinâmicos
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
A integração de serviços na perspetiva dos cidadãos e empresas e a necessidade de garantir algumas características da Administração Pública como a versatilidade e a competitividade colocam alguns constrangimentos na conceção das arquiteturas de integração de serviços. Para que seja possível integrar serviços de forma a que se garanta a mutabilidade da Administração Pública, é necessário criar dinamicamente workflows. No entanto, a criação de dinâmica de workflows suscita algumas preocupações ao nível da segurança, nomeadamente em relação à privacidade dos resultados produzidos durante a execução de um workflow e em relação à aplicação de políticas de controlo de participação no workflow pelos diversos executores do mesmo. Neste trabalho apresentamos um conjunto de princípios e regras (arquitetura) que permitem a criação e execução de workflows dinâmicos resolvendo, através de um modelo de segurança, as questões referidas. A arquitetura utiliza a composição de serviços para dessa forma construir serviços complexos a que poderá estar inerente um workflow dinâmico. A arquitetura usa ainda um paradigma de troca de mensagens-padrão entre os prestadores de serviços envolvidos num workflow dinâmico. O modelo de segurança proposto está intimamente ligado ao conjunto de mensagens definido na arquitetura. No âmbito do trabalho foram identificadas e analisadas várias arquiteturas e/ou plataformas de integração de serviços. A análise realizada teve como objetivo identificar as arquiteturas que permitem a criação de workflows dinâmicos e, destas, aquelas que utilizam mecanismos de privacidade para os resultados e de controlo de participação dos executores desses workflows. A arquitetura de integração que apresentamos é versátil, escalável, permite a prestação concorrente de serviços entre prestadores de serviços e permite criar workflows dinâmicos. A arquitetura permite que as entidades executoras do workflow decidam sobre a sua participação, decidam sobre a participação de terceiros (a quem delegam serviços) e decidam a quem entregam os resultados. Os participantes são acreditados por entidades certificadores reconhecidas pelos demais participantes. As credenciais fornecidas pelas entidades certificadoras são o ponto de partida para a aplicação de políticas de segurança no âmbito da arquitetura. Para validar a arquitetura proposta foram identificados vários casos de uso que exemplificam a necessidade de construção de workflows dinâmicos para atender a serviços complexos (não prestados na íntegra por uma única entidade). Estes casos de uso foram implementados num protótipo da arquitetura desenvolvido para o efeito. Essa experimentação permitiu concluir que a arquitetura está adequada para prestar esses serviços usando workflows dinâmicos e que na execução desses workflows os executores dispõem dos mecanismos de segurança adequados para controlar a sua participação, a participação de terceiros e a privacidade dos resultados produzidos no âmbito dos mesmos.
Resumo:
O benzeno foi o primeiro poluente atmosférico carcinogénico a ser regulamentado a nível europeu. Vários trabalhos têm sido publicados demonstrando a relação deste poluente com diversos tipos de neoplasias nomeadamente decorrentes de exposições a nível ocupacional. Porém, o estudo deste poluente para concentrações atmosféricas em ambientes exteriores ainda é pouco conhecido e está em clara evolução. Neste sentido, este trabalho pretende ser um contributo para o conhecimento da relação entre o benzeno atmosférico e a incidência de patologias que afectam os tecidos linfáticos e órgãos hematopoiéticos nomeadamente linfomas de Hodgkin, linfomas de não-Hodgkin e leucemias na população residente na Área Metropolitana do Porto. Dado a quase ausência de dados de monitorização das concentrações de benzeno atmosférico actualmente em Portugal, estas foram estimadas com base na definição de uma relação entre o benzeno e o monóxido de carbono. O conhecimento das concentrações em todo o domínio de estudo baseou-se na análise dos dados da Rede Automática de Monitorização da Qualidade do Ar porém, de modo a aumentar o detalhe espacial e temporal recorreu-se à modelação atmosférica aplicando o modelo TAPM. Para perceber a evolução temporal das concentrações, a modelação foi efectuada para os anos de 1991, 2001 e 2006 com base no ano meteorológico de 2006 e emissões para os respectivos anos ao nível da freguesia. O modelo foi previamente validado de acordo com uma metodologia proposta para este tipo de modelos. Contudo, mais do que perceber qual a variação da qualidade do ar a nível exterior, é importante conhecer o impacte de fontes interiores e o seu efeito na população. Assim, desenvolveu-se um modelo de exposição e dose que permitem conhecer os valores médios populacionais. A modelação da exposição populacional é efectuada com base nos perfis de actividade-tempo, nos movimentos pendulares inter-concelhos e nas concentrações de benzeno em ambientes exteriores e interiores. Na modelação da dose é ainda possível variações por sexo e idade. Por outro lado, para o estudo das patologias em análise efectuou-se uma análise epidemiológica espacial nomeadamente no que respeita à elaboração de mapas de incidência padronizados pela idade, e estudo da associação com a exposição ao benzeno atmosférico. Os resultados indicam associação entre o benzeno e as doenças em estudo. Esta evidência é mais notória quando a análise é realizada junto às principais fontes de emissão deste poluente, vias de tráfego e postos de abastecimento de combustível. Porém, a ausência de informação limita o estudo não permitindo o controlo de potenciais variáveis de confundimento como a exposição ao fumo do tabaco. A metodologia permite efectuar uma gestão integrada da qualidade do ar exterior e interior, funcionando como uma ferramenta do apoio à decisão para elaboração de planos de prevenção de longo prazo de potenciais efeitos na saúde das populações nomeadamente para outro tipo de patologias.
Resumo:
Neste trabalho apresenta-se um quadro teórico de referência para a avaliação do ensino online, que pretende situar as actividades definidas e desenvolvidas pelos docentes no que respeita às Dimensões da Aprendizagem, da Interacção e da Tecnologia. O referencial teórico que baliza este estudo foi desenvolvido tendo em linha de conta directrizes e orientações nacionais e europeias no que diz respeito ao Ensino Superior (ES), em especial em relação à questão da qualidade do ensino e da integração das tecnologias da informação e da comunicação no currículo. Desta forma, pretendeu-se cumprir um dos objectivos desta investigação, ou seja, contribuir para o desenvolvimento de um quadro conceptual enquadrador do pensamento sobre a avaliação do eLearning no ES e, em particular, das actividades de ensino online. Com base nos pressupostos teóricos definidos, desenvolveram-se dois instrumentos de avaliação que permitem perspectivar as percepções de docentes e de alunos em relação às actividades de ensino desenvolvidas online. No sentido de se definir um público-alvo para testar estes instrumentos, levou-se a cabo um estudo empírico que compreende três fases. A Fase I foi de cariz eminentemente exploratório, uma vez que se inquiriram todos os Estabelecimentos de Ensino Superior (EES) portugueses, com vista a caracterizar o panorama nacional no que releva da utilização de plataformas de eLearning por parte dos EES portugueses, outro objectivo deste trabalho. A Fase II constituiu o momento em que se aplicou pela primeira vez o instrumento de avaliação, apenas dirigido aos docentes, uma vez que universo de respondentes, a considerar-se também os alunos, seria de difícil gestão. Na Fase III seleccionou-se um universo mais reduzido (os quatro cursos de 3.º ciclo ministrados em bLearning em Portugal no ano lectivo de 2009/10), o que permitiu efectivar uma avaliação destes cursos na perspectiva dos docentes e também dos alunos (segundo instrumento de avaliação). Analisados os resultados obtidos nestas três fases, termina-se com a convicção de que se trata de um modelo de avaliação do ensino online passível de ser aplicado ao ES. Isto porque permite não só caracterizar os vários cenários de ensino online através das dimensões de avaliação estabelecidas, como também ter uma percepção bastante clara da forma como as directrizes nacionais e europeias relativas ao ES estão a ser implementadas. Por fim, são feitas propostas para investigação futura, em especial no que se refere à disponibilização online dos instrumentos de avaliação criados e ao desenvolvimento de estudos de investigação-acção que permitam a emergência de eventuais ajustes dos instrumentos e a identificação dos efeitos da sua utilização no aperfeiçoamento das práticas de ensino online.
Resumo:
O objectivo desta dissertação é a exploração da aplicabilidade do modelo IMS – Learning Design, e respectivas ferramentas de suporte, através da criação e desenvolvimento de uma unidade de aprendizagem sobre Instrumentos Orff, baseada neste modelo, para professores do 1º Ciclo do Ensino Básico. A metodologia utilizada foi o estudo de caso de índole exploratória. Foi efectuada uma revisão da literatura que incidiu essencialmente sobre o e-learning e o IMS – Learning Design, seguindo-se a criação das estratégias didácticas e da planificação de toda a Unidade de Aprendizagem sobre Instrumentos Orff. O passo seguinte foi a criação e desenvolvimento da Unidade de Aprendizagem, que culminou com a implementação dos pacotes IMS/SCORM finais do aluno e do professor. A avaliação dos materiais desenvolvidos foi efectuada através de questionários a que responderam um grupo de alunos e de professores. Como forma de conclusão deste trabalho de investigação, foi realizada uma reflexão sobre o modelo IMS – Learning Design e as actuais ferramentas de apoio à implementação. ABSTRACT: The purpose of this dissertation is the exploration of the model IMS – Learning Design and supporting tools applicability, through the creation and development of a learning unit on Orff Instruments based on the model for 1st Basic Teaching Cycle. Method used was an exploratory case study. A complete overview of relevant literature has been done, essentially on elearning and IMS – Learning Design, followed by the building of learning and planning strategies for the whole Learning Unit on Orff Instruments. The following step was the creation and the development of the Learning Unit, that leaded to the final version IMS/SCORM of student’s and teacher’s final package. The evaluation of the materials developed has been done through an inquest targeted to teachers and students. As a conclusion of this investigation, a complete reflection and overview of the IMS Model-Learning Design and its Current supporting tools to it implementation is presented.
Resumo:
O presente trabalho é uma interpretação em consort de flautas de um corpo de obras seleccionadas dos manuscritos P-BRd 964 e P-CUG mm 242. Essa interpretação assenta no conceito de que a prática deve ser uma componente fundamental do estudo filológico e que apenas através da prática se pode produzir determinada forma de conhecimento que não é passível de verbalização. A tese divide-se em 6 partes: 1. estudo e transcrição do reportório seleccionado e sua contextualização histórica, social e estilística; 2. estudo sobre a flauta de bisel no Renascimento, com ênfase na tratadística e na análise dos instrumentos originais sobreviventes; 3. resumo da teoria musical do Renascimento que diz respeito à melodia e às categorizações modais e tonais; 4. estudo da prática interpretativa que regula a execução de polifonia em consort de flautas. A quinta parte deste trabalho explica as consequências práticas da aplicação do estudo filológico e a sexta é a interpretação propriamente dita, expressa no formato de um registo discográfico.
Resumo:
O presente trabalho aborda de que forma a Análise Económica pode contribuir para a definição de uma Política Pública da Água sustentável para Portugal. Analisam-se, inicialmente, as particularidades do recurso e o seu enquadramento legislativo, institucional, bem como as respectivas implicações no processo de gestão da água. Esta análise conduz à definição daquilo a que se chamará ―Novo Modelo de Gestão da Água‖. Tendo por enquadramento a Directiva-Quadro da Água (DQA) — Directiva 2000/60/CE de 23 de Outubro de 2000, publicada no Jornal Oficial das Comunidades Europeias, em 22 de Dezembro do mesmo ano — é ilustrada a aplicação dos conceitos e a abordagem desenvolvida na definição de uma estratégia política de actuação para Portugal, de modo a assegurar o seu cumprimento de forma eficaz, eficiente e sustentável. São discutidos os aspectos económicos e a justificação teórica para a intervenção nos mercados, nomeadamente através do desenvolvimento de sistemas de tarifas. As formas de financiamento do sector, à luz do princípio da recuperação de custos, são analisados propondo-se a chamada visão dos 4T. Dado o contexto de análise do sector da água, enquanto política pública, são referenciados os vários de tipos de regulação e as várias reformas propostas pelos principais investigadores e organizações internacionais. Neste contexto de análise é abordada a governação (governance) e os seus atributos. São enunciados os principais entraves a uma governação eficiente. As várias formas de participação do capital privado, bem como a descrição de algumas das suas potencialidades são postas em evidência. A partir de um modelo analítico procede-se ao estudo dos efeitos do uso de vários instrumentos económicos, nomeadamente a nível do bem-estar. Analisa-se o modelo institucional português, nas suas vertentes, legislativa e institucional. O estado dos recursos hídricos e dos serviços de água em Portugal é avaliado a partir de dados oficiais. Com base na identificação das restrições do actual modelo institucional, é proposto um novo modelo que responda de forma flexível e atempada às solicitações postas pela Directiva. Propõe se a criação de uma instituição financeira — o ―Banco da Água‖ — que, em condições de mercado, possa financiar os investimentos estruturais necessários à melhoria da qualidade dos recursos hídricos, bem como dos serviços associados à água. Pretende demonstrar-se que, face às restrições orçamentais, à esperada conclusão do Quadro de Referência Estratégico Nacional (QREN) e às limitações dos chamados project finance esta solução será necessária para o sucesso da Política Pública da Água. A criação de condições para um maior papel da iniciativa privada, uma legislação protectora do consumidor, a aplicação de instrumentos de política da água — nomeadamente sistemas de tarifas e a criação de um Fundo de Equilíbrio Tarifário —, e o uso da metodologia Oikomatrix, nas políticas sectoriais, são outras das sugestões que completam as propostas avançadas tendentes a que o Sector da Água mimize algumas das ineficiências detectadas e almeje à desejável sustentabilidade.
Resumo:
Motivados pelo propósito central de contribuir para a construção, a longo prazo, de um sistema completo de conversão de texto para fala, baseado em síntese articulatória, desenvolvemos um modelo linguístico para o português europeu (PE), com base no sistema TADA (TAsk Dynamic Application), que visou a obtenção automática da trajectória dos articuladores a partir do texto de entrada. A concretização deste objectivo ditou o desenvolvimento de um conjunto de tarefas, nomeadamente 1) a implementação e avaliação de dois sistemas de silabificação automática e de transcrição fonética, tendo em vista a transformação do texto de entrada num formato adequado ao TADA; 2) a criação de um dicionário gestual para os sons do PE, de modo a que cada fone obtido à saída do conversor grafema-fone pudesse ter correspondência com um conjunto de gestos articulatórios adaptados para o PE; 3) a análise do fenómeno da nasalidade à luz dos princípios dinâmicos da Fonologia Articulatória (FA), com base num estudo articulatório e perceptivo. Os dois algoritmos de silabificação automática implementados e testados fizeram apelo a conhecimentos de natureza fonológica sobre a estrutura da sílaba, sendo o primeiro baseado em transdutores de estados finitos e o segundo uma implementação fiel das propostas de Mateus & d'Andrade (2000). O desempenho destes algoritmos – sobretudo do segundo – mostrou-se similar ao de outros sistemas com as mesmas potencialidades. Quanto à conversão grafema-fone, seguimos uma metodologia baseada em regras de reescrita combinada com uma técnica de aprendizagem automática. Os resultados da avaliação deste sistema motivaram a exploração posterior de outros métodos automáticos, procurando também avaliar o impacto da integração de informação silábica nos sistemas. A descrição dinâmica dos sons do PE, ancorada nos princípios teóricos e metodológicos da FA, baseou-se essencialmente na análise de dados de ressonância magnética, a partir dos quais foram realizadas todas as medições, com vista à obtenção de parâmetros articulatórios quantitativos. Foi tentada uma primeira validação das várias configurações gestuais propostas, através de um pequeno teste perceptual, que permitiu identificar os principais problemas subjacentes à proposta gestual. Este trabalho propiciou, pela primeira vez para o PE, o desenvolvimento de um primeiro sistema de conversão de texto para fala, de base articulatória. A descrição dinâmica das vogais nasais contou, quer com os dados de ressonância magnética, para caracterização dos gestos orais, quer com os dados obtidos através de articulografia electromagnética (EMA), para estudo da dinâmica do velo e da sua relação com os restantes articuladores. Para além disso, foi efectuado um teste perceptivo, usando o TADA e o SAPWindows, para avaliar a sensibilidade dos ouvintes portugueses às variações na altura do velo e alterações na coordenação intergestual. Este estudo serviu de base a uma interpretação abstracta (em termos gestuais) das vogais nasais do PE e permitiu também esclarecer aspectos cruciais relacionados com a sua produção e percepção.
Resumo:
In this thesis we perform a detailed analysis of the state of polarization (SOP) of light scattering process using a concatenation of ber-coil based polarization controllers (PCs). We propose a polarization-mode dispersion (PMD) emulator, built through the concatenation of bercoil based PCs and polarization-maintaining bers (PMFs), capable of generate accurate rst- and second-order PMD statistics. We analyze the co-propagation of two optical waves inside a highbirefringence ber. The evolution along the ber of the relative SOP between the two signals is modeled by the de nition of the degree of co-polarization parameter. We validate the model for the degree of co-polarization experimentally, exploring the polarization dependence of the four-wave mixing e ect into a ber with high birefringence. We also study the interaction between signal and noise mediated by Kerr e ect in optical bers. A model accurately describing ampli ed spontaneous emission noise in systems with distributed Raman gain is derived. We show that the noise statistics depends on the propagation distance and on the signal power, and that for distances longer than 120 km and signal powers higher than 6 mW it deviates signi catively from the Gaussian distribution. We explore the all-optical polarization control process based on the stimulated Raman scattering e ect. Mapping parameters like the degree of polarization (DOP), we show that the preferred ampli cation of one particular polarization component of the signal allows a polarization pulling over a wavelength range of 60 nm. The e ciency of the process is higher close to the maximum Raman gain wavelength, where the DOP is roughly constant for a wavelength range of 15 nm. Finally, we study the polarization control in quantum key distribution (QKD) systems with polarization encoding. A model for the quantum bit error rate estimation in QKD systems with time-division multiplexing and wavelength-division multiplexing based polarization control schemes is derived.
Resumo:
A expressão “Piano Funcional” designa a instrução, em grupo reduzido, em diversas competências funcionais – não incluídas no ensino tradicional europeu, mais orientado para a execução virtuosista. O estudo funcional do piano activa no estudante processos de relacionamento, síntese e generalização sobre diversos aspectos da actividade musical, contribuindo para uma consciência aprofundada da linguagem e alimentando a flexibilidade e autonomia dos educandos. O objectivo do Piano Funcional é o de permitir a aquisição de uma funcionalidade musical plena, através da apropriação e controlo da linguagem musical. O objectivo do presente trabalho é o de propor um Modelo Generativo de Piano Funcional. O modelo generativo proposto parte de um levantamento e análise crítica das dinâmicas que limitam a eficácia do sistema de ensino, nomeadamente: a predominância da descodificação simbólica em detrimento da oralidade e do movimento, o favorecimento do mecanicismo e a valorização excessiva da prática interpretativa. Tais dinâmicas conduzem frequentemente ao sacrifício das competências criativas na formação dos músicos. Propõe-se assim a adopção de um grupo de “novos paradigmas”, tais como: a promoção de valores funcionais; a integração de competências, e a (re)valorização do som, da criatividade, da audição e da sensorialidade como motores das aquisições musicais do aluno. O modelo articula três processos generativos, cada um deles agrupando experiências nos domínios da (i) leitura, (ii) harmonia e (iii) experimentação. O modelo de Piano Funcional é generativo, também, porque promove uma aprendizagem como construção pessoal e criativa. Adicionalmente, realizou-se um trabalho empírico que consistiu na aplicação de conceitos de Piano Funcional na aprendizagem pianística de três sujeitos, ao longo de seis meses. O objectivo deste trabalho empírico foi o de desenvolver actividades que ilustram o âmbito do Piano Funcional e o de aferir a aplicabilidade pedagógica do modelo proposto.
Resumo:
Nas empresas desportivas o principal ativo é o direito desportivo sobre o jogador profissional. O nosso estudo debruça-se no resultante da formação. Começámos por verificar que o direito desportivo preenche os requisitos para ser reconhecido como ativo intangível. Posteriormente analisámos os relatórios e contas de clubes europeus e de clubes brasileiros de modo a identificarmos semelhanças e diferenças ao nível contabilístico dos ativos intangíveis resultantes da formação, um dos nossos objetivos. Verificámos que a principal diferença reside no não reconhecimento do direito desportivo resultante da formação pelos primeiros, contrariamente à prática verificada nos clubes brasileiros. No cenário atual, pelo menos, os clubes europeus não proporcionam informação plena e a comparabilidade entre clubes encontra-se comprometida. Por conseguinte, outro dos nossos objetivos é propor um modelo que permita valorizar com fiabilidade o direito desportivo resultante da formação. A conceção do modelo teve o auxílio dos clubes portugueses e brasileiros, através da resposta a um inquérito dirigido a clubes europeus e brasileiros. Esta metodologia possibilitou, igualmente, confirmar conclusões resultantes da análise da informação contabilística elaborada pelos clubes e identificar outros pontos de contacto e de afastamento entre os clubes relativamente a jogadores formados internamente e ao reconhecimento inicial do direito desportivo. Concluímos que em Portugal existe informação contabilística incompleta sobre os jogadores formados internamente, dado os clubes portugueses considerarem não existir um critério de valorização fiável, e sobre os jogadores que chegam em fim de contrato. Por outro lado, todos os clubes brasileiros respondentes valorizam e reconhecem o direito desportivo resultante da formação como ativo intangível com base nos encargos com a formação do jogador. Por fim, apresentamos a nossa proposta de modelo assente no custo de formação, com a aplicação do método dos centros de gastos. Os componentes incluídos tiveram em conta a opinião dos clubes, tendo posteriormente sido efetuada a análise de clusters e a seleção final de acordo com a IAS 38 da UE. A nossa proposta foi validada junto de agentes com conhecimento e experiência sobre o fenómeno em estudo através de entrevista.
Resumo:
A presente tese investiga o processo de tomada de decisão na gestão de cadeias de abastecimento, utilizando um quadro de análise de opções reais. Especificamente, estudamos tópicos como o nível de inventário ideal para protecção contra a incerteza da procura, o momento para implementação de capacidade flexível em mercados onde existe complexidade no mix de produtos, o tempo para o reforço do factor trabalho visando requisitos de serviço ao mercado, e as decisões entre integração e outsourcing num ambiente de incerteza. Foram usadas metodologias de tempo discreto e contínuo para identificar o valor ideal e o calendário das opções a adoptar, quando a procura é estocástica. Além disso, foram considerados os efeitos dos requisitos dos mercados, como a complexidade na oferta de produtos e o nível de serviço. A procura é representada recorrendo a diferentes processos estocásticos, o impacto de saltos inesperados também é explorado, reforçando a generalização dos modelos a diferentes condições de negócio. A aplicabilidade dos modelos que apresentamos permite a diversificação e o enriquecimento da literatura sobre a abordagem de opções reais, no âmbito das cadeias de abastecimento. Níveis de inventário flexíveis e capacidades flexíveis são característicos das cadeias de abastecimento e podem ser usados como resposta à incerteza do mercado. Esta tese é constituída por ensaios que suportam a aplicação dos modelos, e consiste num capítulo introdutório (designado por ensaio I) e mais seis ensaios sobre factores que discutem o uso de medidas de flexibilidade nas cadeias de abastecimento, em ambientes de incerteza, e um último ensaio sobre a extensão do conceito de flexibilidade ao tratamento da avaliação de planos de negócio. O segundo ensaio que apresentamos é sobre o valor do inventário num único estádio, enquanto medida de flexibilidade, sujeita ao crescente condicionalismo dos custos com posse de activos. Introduzimos uma nova classificação de artigos para suportar o indicador designado por overstock. No terceiro e quarto ensaio ampliamos a exploração do conceito de overstock, promovendo a interacção e o balanceamento entre vários estádios de uma cadeia de abastecimento, como forma de melhorar o desempenho global. Para sustentar a aplicação prática das abordagens, adaptamos o ensaio número três à gestão do desempenho, para suportar o estabelecimento de metas coordenadas e alinhadas; e adaptamos o quarto ensaio à coordenação das cadeias de abastecimento, como auxiliar ao planeamento integrado e sequencial dos níveis de inventário. No ensaio cinco analisamos o factor de produção “tecnologia”, em relação directa com a oferta de produtos de uma empresa, explorando o conceito de investimento, como medida de flexibilidade nas componentes de volume da procura e gama de produtos. Dedicamos o ensaio número seis à análise do factor de produção “Mão-de-Obra”, explorando as condicionantes para aumento do número de turnos na perspectiva económica e determinando o ponto crítico para a tomada de decisão em ambientes de incerteza. No ensaio número sete exploramos o conceito de internalização de operações, demarcando a nossa análise das demais pela definição do momento crítico que suporta a tomada de decisão em ambientes dinâmicos. Complementamos a análise com a introdução de factores temporais de perturbação, nomeadamente, o estádio de preparação necessário e anterior a uma eventual alteração de estratégia. Finalmente, no último ensaio, estendemos a análise da flexibilidade em ambientes de incerteza ao conceito de planos de negócio. Em concreto, exploramos a influência do número de pontos de decisão na flexibilidade de um plano, como resposta à crescente incerteza dos mercados. A título de exemplo, usamos o mecanismo de gestão sequencial do orçamento para suportar o nosso modelo. A crescente incerteza da procura obrigou a um aumento da agilidade e da flexibilidade das cadeias de abastecimento, limitando o uso de muitas das técnicas tradicionais de suporte à gestão, pela incapacidade de incorporarem os efeitos da incerteza. A flexibilidade é claramente uma vantagem competitiva das empresas que deve, por isso, ser quantificada. Com os modelos apresentados e com base nos resultados analisados, pretendemos demonstrar a utilidade da consideração da incerteza nos instrumentos de gestão, usando exemplos numéricos para suportar a aplicação dos modelos, o que claramente promove a aproximação dos desenvolvimentos aqui apresentados às práticas de negócio.
Resumo:
A informação digitalizada e nado digital, fruto do avanço tecnológico proporcionado pelas Tecnologias da Informação e Comunicação (TIC), bem como da filosofia participativa da Web 2.0, conduziu à necessidade de reflexão sobre a capacidade de os modelos atuais, para a organização e representação da informação, de responder às necessidades info-comunicacionais assim como o acesso à informação eletrónica pelos utilizadores em Instituições de Memória. O presente trabalho de investigação tem como objetivo a conceção e avaliação de um modelo genérico normativo e harmonizador para a organização e representação da informação eletrónica, num sistema de informação para o uso de utilizadores e profissionais da informação, no contexto atual colaborativo e participativo. A definição dos objetivos propostos teve por base o estudo e análise qualitativa das normas adotadas pelas instituições de memória, para os registos de autoridade, bibliográfico e formatos de representação. Após a concetualização, foi desenvolvido e avaliado o protótipo, essencialmente, pela análise qualitativa dos dados obtidos a partir de testes à recuperação da informação. A experiência decorreu num ambiente laboratorial onde foram realizados testes, entrevistas e inquéritos por questionário. A análise cruzada dos resultados, obtida pela triangulação dos dados recolhidos através das várias fontes, permitiu concluir que tanto os utilizadores como os profissionais da informação consideraram muito interessante a integração da harmonização normativa refletida nos vários módulos, a integração de serviços/ferramentas comunicacionais e a utilização da componente participativa/colaborativa da plataforma privilegiando a Wiki, seguida dos Comentários, Tags, Forum de discussão e E-mail.
Resumo:
O presente trabalho pretende auxiliar o processo de consolidação do conceito de sustentabilidade no seio das organizações. Partindo de ferramentas de gestão e avaliação já existentes, esta tese sugere a sua integração numa única metodologia, ultrapassando desse modo as limitações e potenciando as suas capacidades enquanto ferramentas isoladas. O modelo proposto para o Sistema de Gestão da Sustentabilidade (SGS) integra assim: o conceito de melhoria contínua característico dos sistemas de gestão normalizados; a capacidade de tradução da perspetiva estratégica da gestão para o plano operacional, característica do Business Scorecard (BSC); e, por fim, a avaliação emergética é ainda utilizada como uma ferramenta de avaliação da sustentabilidade de sistemas. Um objetivo secundário desta tese prende-se com o desenvolvimento de um procedimento para a realização da análise emergética de um sistema. Depois de analisada a literatura referente à utilização da análise emergética, identificou-se como necessária a definição de um procedimento normalizado, adotando um conjunto de tarefas e um formato de apresentação de resultados que permita disseminar o conceito e tornar a ferramenta mais “utilizável”. Por outro lado, procurou-se dotar o procedimento com um conjunto de indicações que permitem ultrapassar limitações e inconvenientes apontados pelos críticos mas também utilizadores do método, nomeadamente: problemas de dupla contagem, cálculo da incerteza da análise e critérios de qualidade da informação utilizada. O modelo dos sistemas de gestão normalizados apresenta um papel central na metodologia proposta. O conceito de “melhoria contínua” afigura-se como fundamental num sistema que pretende implementar o conceito “desenvolvimento sustentável” e avaliar o seu desempenho à luz do mesmo. Assim, o ciclo Plan-Do-check-Act (PDCA) deve ser utilizado para implementar o SGS de acordo com uma Política para a Sustentabilidade que a organização deve desenvolver. Definida a Política, o modelo baseia-se então no ciclo PDCA: fase de planeamento; fase de implementação; fase de verificação; e fase de revisão. É na fase de planeamento do SGS que se sugere a introdução das outras duas ferramentas: a análise emergética (AEm) e o BSC. A fase de planeamento do modelo de SGS proposto neste trabalho foi aplicada à Universidade de Aveiro (UA), incluindo a definição de uma Política para a Sustentabilidade e o planeamento estratégico e operacional. A avaliação emergética à UA foi realizada recorrendo ao procedimento desenvolvido nesta tese e permitiu caracterizar e avaliar os fluxos de recursos que a “alimentam” sob uma só unidade, atribuindo deste modo graus de importância aos diferentes recursos utilizados. A informação representa 96% do total de recursos utilizados na UA, quando avaliados sob o ponto de vista emergética. Para além da informação, os fluxos financeiros representam a maior fatia do orçamento emergético da UA, grande parte dos quais serve para sustentar os serviços prestados pelo corpo docente da UA. Analisando valores históricos de 3 indicadores de desempenho emergético, observa-se que a UA não regista uma evolução positiva em nenhum dos indicadores: a emergia utilizada nos edifícios tem-se mantido mais ou menos constante; a retribuição emergética da UA para a sociedade, avaliada sobre a forma de diplomados, tem diminuído; e a relação emergética entre professores e alunos tem também diminuído, facto que pode refletir-se na qualidade dos “produtos” da UA. Da aplicação do SGS à UA regista-se: a adequabilidade do ciclo PDCA à implementação de um SGS; a capacidade da AEm “obrigar” a organização a adotar uma abordagem sistémica da sua atividade, resultando numa visão mais aprofundada da sua relação com o contexto ambiental, económico e social em que se insere; a importância da visão estratégica e da sua tradução em termos operacionais na fase de planeamento de um SGS; e, por fim, a capacidade de adaptação e dupla funcionalidade (implementação e avaliação) do modelo de SGS proposto. A metodologia de SGS proposta nesta tese, sendo direcionada para todo o tipo de organizações, não se desvirtua quando aplicada ao contexto específico das instituições de ensino superior e permite implementar e avaliar o conceito “desenvolvimento sustentável” nas quatro dimensões da universidade (Educação, Investigação, Operação; Relação com as partes interessadas).
Resumo:
Access control is a software engineering challenge in database applications. Currently, there is no satisfactory solution to dynamically implement evolving fine-grained access control mechanisms (FGACM) on business tiers of relational database applications. To tackle this access control gap, we propose an architecture, herein referred to as Dynamic Access Control Architecture (DACA). DACA allows FGACM to be dynamically built and updated at runtime in accordance with the established fine-grained access control policies (FGACP). DACA explores and makes use of Call Level Interfaces (CLI) features to implement FGACM on business tiers. Among the features, we emphasize their performance and their multiple access modes to data residing on relational databases. The different access modes of CLI are wrapped by typed objects driven by FGACM, which are built and updated at runtime. Programmers prescind of traditional access modes of CLI and start using the ones dynamically implemented and updated. DACA comprises three main components: Policy Server (repository of metadata for FGACM), Dynamic Access Control Component (DACC) (business tier component responsible for implementing FGACM) and Policy Manager (broker between DACC and Policy Server). Unlike current approaches, DACA is not dependent on any particular access control model or on any access control policy, this way promoting its applicability to a wide range of different situations. In order to validate DACA, a solution based on Java, Java Database Connectivity (JDBC) and SQL Server was devised and implemented. Two evaluations were carried out. The first one evaluates DACA capability to implement and update FGACM dynamically, at runtime, and, the second one assesses DACA performance against a standard use of JDBC without any FGACM. The collected results show that DACA is an effective approach for implementing evolving FGACM on business tiers based on Call Level Interfaces, in this case JDBC.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.