7 resultados para Asset Management, Decision, Taxonomy, Context Analysis

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A diversidade, complexidade e imprevisibilidade que caracterizam a sociedade actual exigem da Escola uma articulação eficaz entre as aprendizagens e a realidade sociocultural dos alunos, de modo a promover a formação de cidadãos instruídos, competentes, críticos e aptos para aprender a aprender ao longo da vida. Neste sentido, é crucial contextualizar e gerir o currículo, adequando-o à multiplicidade e idiossincrasias dos alunos e seus contextos, assegurando-lhes aprendizagens funcionais e de qualidade. A implementação do processo de Reorganização Curricular do Ensino Básico, consubstanciado através da promulgação do Decreto-Lei n.º 6/2001, de 18 de Janeiro, ambiciona(va) melhorar a eficácia de resposta da escola ao seu mandato social, atribuindo a esta a centralidade na reconceptualização do currículo nacional em função dos contextos com que trabalha. Para tal, a auto-implicação, a negociação e a colaboração são pressupostos indispensáveis a um processo de gestão curricular centrado na escola e operacionalizado no contexto das suas diferentes estruturas. Nesta perspectiva, estruturas de gestão curricular intermédia como o conselho de turma e o departamento curricular, assumem particular ênfase na promoção e desenvolvimento de práticas de colaboração docente fulcrais a processos de gestão curricular. Assim, analisar e aprofundar conhecimento sobre condições facilitadoras, bem como factores de dificultação, do desenvolvimento de práticas de colaboração docente no contexto das referidas estruturas, identificadas na sequência da implementação da orientação de política curricular traduzida no referido decreto-lei constituiu o principal objectivo subjacente a este estudo. Procurou-se relacionar esta análise com dimensões de cultura profissional e organizacional, que a literatura e a investigação revistas documentam como factores relevantes na transformação de práticas curriculares. O presente estudo decorreu em dois momentos: o primeiro, no ano lectivo de 2006/2007, assumiu uma natureza predominantemente quantitativa, privilegiando-se como técnica de recolha de dados o inquérito por questionário aplicado 2718 professores que se encontravam a leccionar Ciências da Natureza, Ciências Naturais ou Ciências Físico-Químicas na rede de escolas públicas com 2º e 3º Ciclos da Direcção Regional de Educação do Norte (DREN) e do Centro de Área Educativa (CAE) de Aveiro, o qual foi complementado com a realização de uma entrevista semi-estruturada a seis professores de Ciências Físicas e Naturais; o segundo momento, realizado no ano lectivo de 2007/2008, adoptou uma metodologia de investigação, essencialmente, qualitativa – estudo de caso – desenvolvido numa escola básica com 2º e 3º ciclos com doze professores pertencentes a um conselho de turma e com oito professores de Ciências Físicas e Naturais afectos ao departamento curricular de Matemática e Ciências Experimentais. Este momento caracterizou-se pela: i) realização de dois percursos formativos, um com professores do conselho de turma e outro com os professores de Ciências Físicas e Naturais; ii) observação de reuniões de trabalho em contexto das estruturas supramencionadas; iii) planificação, implementação e avaliação de uma aula em regime de co-docência, abordando uma temática na perspectiva Ciência, Tecnologia e Sociedade e iv) realização de entrevistas a todos os professores participantes, aos Presidentes do Conselho Executivo e do Conselho Pedagógico e à Coordenadora do Departamento Curricular de Matemática e Ciências Experimentais. O sistema de análise de dados utilizado visou a compreensão das dinâmicas de trabalho docente desenvolvidas no processo de gestão curricular no contexto das estruturas de gestão intermédia em análise. Neste sentido, privilegiaram-se a análise estatística e de conteúdo como técnicas de tratamento dos dados. Os resultados deste estudo apontam para a prevalência de uma cultura docente fortemente individualizada, balcanizada e burocratizada, facto que restringe o desenvolvimento de práticas de gestão curricular e de dinâmicas de trabalho docente sustentadas e adequadas ao contexto e necessidades específicas dos alunos. Sugerem, igualmente, que o desenvolvimento de práticas de colaboração docente não é consequência directa da decisão espontânea e voluntarismo dos professores ou de uma imposição externa não assumida pelos mesmos, mas sim de uma convergência de factores de responsabilização, reconhecimento da utilidade e eficácia da colaboração, e incentivo organizacional que se revelaram pouco significativos no estudo em causa. Por outro lado, indiciam que uma efectiva colaboração docente implica transformações no plano das culturas, que não decorrem dos normativos, e é potenciada por processos de negociação, onde os diferentes actores educativos partilham responsabilidades e uma autonomia cimentada numa visão colectiva e integradora do projecto educativo e curricular da escola. No sentido de contribuir para a consolidação do conhecimento no domínio em estudo, consideramos necessária a realização de outras investigações centradas no mesmo objecto de estudo, mas desenvolvidas em outros contextos escolares.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho pretende auxiliar o processo de consolidação do conceito de sustentabilidade no seio das organizações. Partindo de ferramentas de gestão e avaliação já existentes, esta tese sugere a sua integração numa única metodologia, ultrapassando desse modo as limitações e potenciando as suas capacidades enquanto ferramentas isoladas. O modelo proposto para o Sistema de Gestão da Sustentabilidade (SGS) integra assim: o conceito de melhoria contínua característico dos sistemas de gestão normalizados; a capacidade de tradução da perspetiva estratégica da gestão para o plano operacional, característica do Business Scorecard (BSC); e, por fim, a avaliação emergética é ainda utilizada como uma ferramenta de avaliação da sustentabilidade de sistemas. Um objetivo secundário desta tese prende-se com o desenvolvimento de um procedimento para a realização da análise emergética de um sistema. Depois de analisada a literatura referente à utilização da análise emergética, identificou-se como necessária a definição de um procedimento normalizado, adotando um conjunto de tarefas e um formato de apresentação de resultados que permita disseminar o conceito e tornar a ferramenta mais “utilizável”. Por outro lado, procurou-se dotar o procedimento com um conjunto de indicações que permitem ultrapassar limitações e inconvenientes apontados pelos críticos mas também utilizadores do método, nomeadamente: problemas de dupla contagem, cálculo da incerteza da análise e critérios de qualidade da informação utilizada. O modelo dos sistemas de gestão normalizados apresenta um papel central na metodologia proposta. O conceito de “melhoria contínua” afigura-se como fundamental num sistema que pretende implementar o conceito “desenvolvimento sustentável” e avaliar o seu desempenho à luz do mesmo. Assim, o ciclo Plan-Do-check-Act (PDCA) deve ser utilizado para implementar o SGS de acordo com uma Política para a Sustentabilidade que a organização deve desenvolver. Definida a Política, o modelo baseia-se então no ciclo PDCA: fase de planeamento; fase de implementação; fase de verificação; e fase de revisão. É na fase de planeamento do SGS que se sugere a introdução das outras duas ferramentas: a análise emergética (AEm) e o BSC. A fase de planeamento do modelo de SGS proposto neste trabalho foi aplicada à Universidade de Aveiro (UA), incluindo a definição de uma Política para a Sustentabilidade e o planeamento estratégico e operacional. A avaliação emergética à UA foi realizada recorrendo ao procedimento desenvolvido nesta tese e permitiu caracterizar e avaliar os fluxos de recursos que a “alimentam” sob uma só unidade, atribuindo deste modo graus de importância aos diferentes recursos utilizados. A informação representa 96% do total de recursos utilizados na UA, quando avaliados sob o ponto de vista emergética. Para além da informação, os fluxos financeiros representam a maior fatia do orçamento emergético da UA, grande parte dos quais serve para sustentar os serviços prestados pelo corpo docente da UA. Analisando valores históricos de 3 indicadores de desempenho emergético, observa-se que a UA não regista uma evolução positiva em nenhum dos indicadores: a emergia utilizada nos edifícios tem-se mantido mais ou menos constante; a retribuição emergética da UA para a sociedade, avaliada sobre a forma de diplomados, tem diminuído; e a relação emergética entre professores e alunos tem também diminuído, facto que pode refletir-se na qualidade dos “produtos” da UA. Da aplicação do SGS à UA regista-se: a adequabilidade do ciclo PDCA à implementação de um SGS; a capacidade da AEm “obrigar” a organização a adotar uma abordagem sistémica da sua atividade, resultando numa visão mais aprofundada da sua relação com o contexto ambiental, económico e social em que se insere; a importância da visão estratégica e da sua tradução em termos operacionais na fase de planeamento de um SGS; e, por fim, a capacidade de adaptação e dupla funcionalidade (implementação e avaliação) do modelo de SGS proposto. A metodologia de SGS proposta nesta tese, sendo direcionada para todo o tipo de organizações, não se desvirtua quando aplicada ao contexto específico das instituições de ensino superior e permite implementar e avaliar o conceito “desenvolvimento sustentável” nas quatro dimensões da universidade (Educação, Investigação, Operação; Relação com as partes interessadas).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The introduction of chemicals into the environment by human activities may represent a serious risk to environmental and human health. Environmental risk assessment requires the use of efficient and sensitive tools to determine the impact of contaminants on the ecosystems. The use of zebrafish for the toxicity assessment of pharmaceuticals, drugs, and pollutants, is becoming well accepted due to zebrafish unique advantages for the screening of compounds for hazard identification. The aim of the present work is to apply toxicogenomic approaches to identify novel biomarkers and uncovered potential modes of action of classic and emergent contaminants able to disrupt endocrine systems, such as the Retinoic Acid Receptor, Retinoid X Receptor and the Aryl Hydrocarbon Receptor. This study relies on different nuclear and cytosolic protein receptors and other conditional (ligand- or stress- activated) transcriptional factors that are intimately involved in the regulation of defensome genes and in mechanisms of chemical toxicity. The transcriptomic effects of organic compounds, endogenous compounds, and nanoparticles were analysed during the early stages of zebrafish development. Studying the gene expression profiles of exposed and unexposed organisms to pollutants using microarrays allowed the identification of specific gene markers and to establish a "genetic code" for the tested compounds. Changes in gene expression were observed at toxicant concentrations that did not cause morphological effects. Even at low toxicant concentrations, the observed changes in transcript levels were robust for some target genes. Microarray responses of selected genes were further complemented by the real time quantitative polymerase chain reaction (qRT-PCR) methodology. The combination of bio-informatic, toxicological analyses of differential gene expression profiles, and biochemical and phenotypic responses across the treatments allowed the identification of uncovered potential mechanisms of action. In addition, this work provides an integrated set of tools that can be used to aid management-decision making by improving the predictive capability to measure environmental stress of contaminants in freshwater ecosystems. This study also illustrates the potential of zebrafish embryos for the systematic, large-scale analysis of chemical effects on developing vertebrates.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The massive adoption of sophisticated mobile devices and applications led to the increase of mobile data in the last decade, which it is expected to continue. This increase of mobile data negatively impacts the network planning and dimension, since core networks are heavy centralized. Mobile operators are investigating atten network architectures that distribute the responsibility of providing connectivity and mobility, in order to improve the network scalability and performance. Moreover, service providers are moving the content servers closer to the user, in order to ensure high availability and performance of content delivery. Besides the e orts to overcome the explosion of mobile data, current mobility management models are heavy centralized to ensure reachability and session continuity to the users connected to the network. Nowadays, deployed architectures have a small number of centralized mobility anchors managing the mobile data and the mobility context of millions of users, which introduces issues related to performance and scalability that require costly network mechanisms. The mobility management needs to be rethought out-of-the box to cope with atten network architectures and distributed content servers closer to the user, which is the purpose of the work developed in this Thesis. The Thesis starts with a characterization of mobility management into well-de ned functional blocks, their interaction and potential grouping. The decentralized mobility management is studied through analytical models and simulations, in which di erent mobility approaches distinctly distribute the mobility management functionalities through the network. The outcome of this study showed that decentralized mobility management brings advantages. Hence, it was proposed a novel distributed and dynamic mobility management approach, which is exhaustively evaluated through analytical models, simulations and testbed experiments. The proposed approach is also integrated with seamless horizontal handover mechanisms, as well as evaluated in vehicular environments. The mobility mechanisms are also speci ed for multihomed scenarios, in order to provide data o oading with IP mobility from cellular to other access networks. In the pursuing of the optimized mobile routing path, a novel network-based strategy for localized mobility is addressed, in which a replication binding system is deployed in the mobility anchors distributed through the access routers and gateways. Finally, we go further in the mobility anchoring subject, presenting a context-aware adaptive IP mobility anchoring model that dynamically assigns the mobility anchors that provide the optimized routing path to a session, based on the user and network context. The integration of dynamic and distributed concepts in the mobility management, such as context-aware adaptive mobility anchoring and dynamic mobility support, allow the optimization of network resources and the improvement of user experience. The overall outcome demonstrates that decentralized mobility management is a promising direction, hence, its ideas should be taken into account by mobile operators in the deployment of future networks.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A manipulação contabilística constitui-se como uma problemática atual, relatada sob os mais diversos contextos. Este estudo descritivo pretende verificar a existência de Earnings Management no contexto das Instituições Particulares de Solidariedade Social (IPSS) e averiguar as razões (motivações) que levam a estas práticas. A amostra para este estudo é constituída por 14 instituições portuguesas, num total de 58 observações situadas entre os anos 2009 e 2014. Para a análise dos dados foi utilizada uma abordagem quantitativa, primeiramente através de estatística descritiva e correlacional. Para testar a existência de Earnings Management utilizou-se um modelo baseado no estudo de accruals agregados (Modelo de Jones - 1991) e um modelo complementar baseado na distribuição de frequência de resultados (Burgstahler e Dichev -1997). Os resultados permitem inferir a existência destas práticas neste setor e as motivações estarão relacionadas com a rendibilidade das instituições.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Um dos maiores avanços científicos do século XX foi o desenvolvimento de tecnologia que permite a sequenciação de genomas em larga escala. Contudo, a informação produzida pela sequenciação não explica por si só a sua estrutura primária, evolução e seu funcionamento. Para esse fim novas áreas como a biologia molecular, a genética e a bioinformática são usadas para estudar as diversas propriedades e funcionamento dos genomas. Com este trabalho estamos particularmente interessados em perceber detalhadamente a descodificação do genoma efectuada no ribossoma e extrair as regras gerais através da análise da estrutura primária do genoma, nomeadamente o contexto de codões e a distribuição dos codões. Estas regras estão pouco estudadas e entendidas, não se sabendo se poderão ser obtidas através de estatística e ferramentas bioinfomáticas. Os métodos tradicionais para estudar a distribuição dos codões no genoma e seu contexto não providenciam as ferramentas necessárias para estudar estas propriedades à escala genómica. As tabelas de contagens com as distribuições de codões, assim como métricas absolutas, estão actualmente disponíveis em bases de dados. Diversas aplicações para caracterizar as sequências genéticas estão também disponíveis. No entanto, outros tipos de abordagens a nível estatístico e outros métodos de visualização de informação estavam claramente em falta. No presente trabalho foram desenvolvidos métodos matemáticos e computacionais para a análise do contexto de codões e também para identificar zonas onde as repetições de codões ocorrem. Novas formas de visualização de informação foram também desenvolvidas para permitir a interpretação da informação obtida. As ferramentas estatísticas inseridas no modelo, como o clustering, análise residual, índices de adaptação dos codões revelaram-se importantes para caracterizar as sequências codificantes de alguns genomas. O objectivo final é que a informação obtida permita identificar as regras gerais que governam o contexto de codões em qualquer genoma.