32 resultados para Arquitectura baseada em modelos

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The contemporary world is crowded of large, interdisciplinary, complex systems made of other systems, personnel, hardware, software, information, processes, and facilities. The Systems Engineering (SE) field proposes an integrated holistic approach to tackle these socio-technical systems that is crucial to take proper account of their multifaceted nature and numerous interrelationships, providing the means to enable their successful realization. Model-Based Systems Engineering (MBSE) is an emerging paradigm in the SE field and can be described as the formalized application of modelling principles, methods, languages, and tools to the entire lifecycle of those systems, enhancing communications and knowledge capture, shared understanding, improved design precision and integrity, better development traceability, and reduced development risks. This thesis is devoted to the application of the novel MBSE paradigm to the Urban Traffic & Environment domain. The proposed system, the GUILTE (Guiding Urban Intelligent Traffic & Environment), deals with a present-day real challenging problem “at the agenda” of world leaders, national governors, local authorities, research agencies, academia, and general public. The main purposes of the system are to provide an integrated development framework for the municipalities, and to support the (short-time and real-time) operations of the urban traffic through Intelligent Transportation Systems, highlighting two fundamental aspects: the evaluation of the related environmental impacts (in particular, the air pollution and the noise), and the dissemination of information to the citizens, endorsing their involvement and participation. These objectives are related with the high-level complex challenge of developing sustainable urban transportation networks. The development process of the GUILTE system is supported by a new methodology, the LITHE (Agile Systems Modelling Engineering), which aims to lightening the complexity and burdensome of the existing methodologies by emphasizing agile principles such as continuous communication, feedback, stakeholders involvement, short iterations and rapid response. These principles are accomplished through a universal and intuitive SE process, the SIMILAR process model (which was redefined at the light of the modern international standards), a lean MBSE method, and a coherent System Model developed through the benchmark graphical modeling languages SysML and OPDs/OPL. The main contributions of the work are, in their essence, models and can be settled as: a revised process model for the SE field, an agile methodology for MBSE development environments, a graphical tool to support the proposed methodology, and a System Model for the GUILTE system. The comprehensive literature reviews provided for the main scientific field of this research (SE/MBSE) and for the application domain (Traffic & Environment) can also be seen as a relevant contribution.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A evolução observada nas redes de comunicações durante a última década traduziu-se na diversificação de serviços que utilizam a rede, no aumento das taxas de transferência e na massificação da utilização de serviços de acesso à Internet e de comunicações celulares. Durante esta década, várias organizações, das quais se destacam os operadores de telecomunicações, têm dedicado consideráveis esforços no sentido de definir e normalizar arquitecturas de redes de próxima geração. A principal característica deste tipo de rede reside no facto de possuir uma arquitectura modular capaz de fornecer serviços multimédia a clientes de uma rede de acesso com características tecnológicas heterogéneas. Os trabalhos de normalização das arquitecturas de rede NGN têm-se limitado, até ao momento, a especificar detalhes relativos ao funcionamento da rede não tendo ainda sido definida a arquitectura de gestão. Em termos de tecnologias de gestão de redes, foram propostos nas últimas duas décadas novos paradigmas de gestão, novos modelos de dados, novos protocolos de transporte e várias linguagens de definição de informação de gestão. Os modelos de dados têm vindo a ser enriquecidos, os protocolos são mais flexíveis e poderosos, as soluções de gestão oferecem interoperabilidade acrescida e as linguagens permitem definir formatos de configuração mais ricos. Simultaneamente tem crescido a complexidade das soluções de gestão, aumentado a sobrecarga causada pelo aumento de complexidade nos equipamentos bem como nas plataformas computacionais que suportam os sistemas de gestão. O presente trabalho propõe uma solução de gestão para redes NGN capaz de gerir os recursos de rede garantindo Qualidade de Serviço. A solução de gestão proposta inclui uma plataforma de execução de políticas que utiliza os eventos ocorridos na rede para empreender acções de configuração, autonomizando o processo de gestão. Inclui uma avaliação da complexidade de várias tecnologias de gestão estudando a sobrecarga causada pela tecnologia tanto no processo de gestão como na operação da rede. É ainda estudada a escalabilidade das várias tecnologias e analisado o seu comportamento num cenário da rede de um operador de telecomunicações. O trabalho propõe ainda uma metodologia de configuração integrada dos elementos de gestão, através de uma interface de configuração amigável para o administrador do sistema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho tem por objectivo estudar a caracterização e modelação de arquitecturas de rádio frequência para aplicações em rádios definidos por software e rádios cognitivos. O constante aparecimento no mercado de novos padrões e tecnologias para comunicações sem fios têm levantado algumas limitações à implementação de transceptores rádio de banda larga. Para além disso, o uso de sistemas reconfiguráveis e adaptáveis baseados no conceito de rádio definido por software e rádio cognitivo assegurará a evolução para a próxima geração de comunicações sem fios. A ideia base desta tese passa por resolver alguns problemas em aberto e propor avanços relevantes, tirando para isso partido das capacidades providenciadas pelos processadores digitais de sinal de forma a melhorar o desempenho global dos sistemas propostos. Inicialmente, serão abordadas várias estratégias para a implementação e projecto de transceptores rádio, concentrando-se sempre na aplicabilidade específica a sistemas de rádio definido por software e rádio cognitivo. Serão também discutidas soluções actuais de instrumentação capaz de caracterizar um dispositivo que opere simultaneamente nos domínios analógico e digital, bem como, os próximos passos nesta área de caracterização e modelação. Além disso, iremos apresentar novos formatos de modelos comportamentais construídos especificamente para a descrição e caracterização não-linear de receptores de amostragem passa-banda, bem como, para sistemas nãolineares que utilizem sinais multi-portadora. Será apresentada uma nova arquitectura suportada na avaliação estatística dos sinais rádio que permite aumentar a gama dinâmica do receptor em situações de multi-portadora. Da mesma forma, será apresentada uma técnica de maximização da largura de banda de recepção baseada na utilização do receptor de amostragem passa-banda no formato complexo. Finalmente, importa referir que todas as arquitecturas propostas serão acompanhadas por uma introdução teórica e simulações, sempre que possível, sendo após isto validadas experimentalmente por protótipos laboratoriais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

When developing software for autonomous mobile robots, one has to inevitably tackle some kind of perception. Moreover, when dealing with agents that possess some level of reasoning for executing their actions, there is the need to model the environment and the robot internal state in a way that it represents the scenario in which the robot operates. Inserted in the ATRI group, part of the IEETA research unit at Aveiro University, this work uses two of the projects of the group as test bed, particularly in the scenario of robotic soccer with real robots. With the main objective of developing algorithms for sensor and information fusion that could be used e ectively on these teams, several state of the art approaches were studied, implemented and adapted to each of the robot types. Within the MSL RoboCup team CAMBADA, the main focus was the perception of ball and obstacles, with the creation of models capable of providing extended information so that the reasoning of the robot can be ever more e ective. To achieve it, several methodologies were analyzed, implemented, compared and improved. Concerning the ball, an analysis of ltering methodologies for stabilization of its position and estimation of its velocity was performed. Also, with the goal keeper in mind, work has been done to provide it with information of aerial balls. As for obstacles, a new de nition of the way they are perceived by the vision and the type of information provided was created, as well as a methodology for identifying which of the obstacles are team mates. Also, a tracking algorithm was developed, which ultimately assigned each of the obstacles a unique identi er. Associated with the improvement of the obstacles perception, a new algorithm of estimating reactive obstacle avoidance was created. In the context of the SPL RoboCup team Portuguese Team, besides the inevitable adaptation of many of the algorithms already developed for sensor and information fusion and considering that it was recently created, the objective was to create a sustainable software architecture that could be the base for future modular development. The software architecture created is based on a series of di erent processes and the means of communication among them. All processes were created or adapted for the new architecture and a base set of roles and behaviors was de ned during this work to achieve a base functional framework. In terms of perception, the main focus was to de ne a projection model and camera pose extraction that could provide information in metric coordinates. The second main objective was to adapt the CAMBADA localization algorithm to work on the NAO robots, considering all the limitations it presents when comparing to the MSL team, especially in terms of computational resources. A set of support tools were developed or improved in order to support the test and development in both teams. In general, the work developed during this thesis improved the performance of the teams during play and also the e ectiveness of the developers team when in development and test phases.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The main motivation for the work presented here began with previously conducted experiments with a programming concept at the time named "Macro". These experiments led to the conviction that it would be possible to build a system of engine control from scratch, which could eliminate many of the current problems of engine management systems in a direct and intrinsic way. It was also hoped that it would minimize the full range of software and hardware needed to make a final and fully functional system. Initially, this paper proposes to make a comprehensive survey of the state of the art in the specific area of software and corresponding hardware of automotive tools and automotive ECUs. Problems arising from such software will be identified, and it will be clear that practically all of these problems stem directly or indirectly from the fact that we continue to make comprehensive use of extremely long and complex "tool chains". Similarly, in the hardware, it will be argued that the problems stem from the extreme complexity and inter-dependency inside processor architectures. The conclusions are presented through an extensive list of "pitfalls" which will be thoroughly enumerated, identified and characterized. Solutions will also be proposed for the various current issues and for the implementation of these same solutions. All this final work will be part of a "proof-of-concept" system called "ECU2010". The central element of this system is the before mentioned "Macro" concept, which is an graphical block representing one of many operations required in a automotive system having arithmetic, logic, filtering, integration, multiplexing functions among others. The end result of the proposed work is a single tool, fully integrated, enabling the development and management of the entire system in one simple visual interface. Part of the presented result relies on a hardware platform fully adapted to the software, as well as enabling high flexibility and scalability in addition to using exactly the same technology for ECU, data logger and peripherals alike. Current systems rely on a mostly evolutionary path, only allowing online calibration of parameters, but never the online alteration of their own automotive functionality algorithms. By contrast, the system developed and described in this thesis had the advantage of following a "clean-slate" approach, whereby everything could be rethought globally. In the end, out of all the system characteristics, "LIVE-Prototyping" is the most relevant feature, allowing the adjustment of automotive algorithms (eg. Injection, ignition, lambda control, etc.) 100% online, keeping the engine constantly working, without ever having to stop or reboot to make such changes. This consequently eliminates any "turnaround delay" typically present in current automotive systems, thereby enhancing the efficiency and handling of such systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objectivo desta dissertação é a exploração da aplicabilidade do modelo IMS – Learning Design, e respectivas ferramentas de suporte, através da criação e desenvolvimento de uma unidade de aprendizagem sobre Instrumentos Orff, baseada neste modelo, para professores do 1º Ciclo do Ensino Básico. A metodologia utilizada foi o estudo de caso de índole exploratória. Foi efectuada uma revisão da literatura que incidiu essencialmente sobre o e-learning e o IMS – Learning Design, seguindo-se a criação das estratégias didácticas e da planificação de toda a Unidade de Aprendizagem sobre Instrumentos Orff. O passo seguinte foi a criação e desenvolvimento da Unidade de Aprendizagem, que culminou com a implementação dos pacotes IMS/SCORM finais do aluno e do professor. A avaliação dos materiais desenvolvidos foi efectuada através de questionários a que responderam um grupo de alunos e de professores. Como forma de conclusão deste trabalho de investigação, foi realizada uma reflexão sobre o modelo IMS – Learning Design e as actuais ferramentas de apoio à implementação. ABSTRACT: The purpose of this dissertation is the exploration of the model IMS – Learning Design and supporting tools applicability, through the creation and development of a learning unit on Orff Instruments based on the model for 1st Basic Teaching Cycle. Method used was an exploratory case study. A complete overview of relevant literature has been done, essentially on elearning and IMS – Learning Design, followed by the building of learning and planning strategies for the whole Learning Unit on Orff Instruments. The following step was the creation and the development of the Learning Unit, that leaded to the final version IMS/SCORM of student’s and teacher’s final package. The evaluation of the materials developed has been done through an inquest targeted to teachers and students. As a conclusion of this investigation, a complete reflection and overview of the IMS Model-Learning Design and its Current supporting tools to it implementation is presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na última década tem-se assistido a um crescimento exponencial das redes de comunicações sem fios, nomeadamente no que se refere a taxa de penetração do serviço prestado e na implementação de novas infra-estruturas em todo o globo. É ponto assente neste momento que esta tendência irá não só continuar como se fortalecer devido à convergência que é esperada entre as redes móveis sem fio e a disponibilização de serviços de banda larga para a rede Internet fixa, numa evolução para um paradigma de uma arquitectura integrada e baseada em serviços e aplicações IP. Por este motivo, as comunicações móveis sem fios irão ter um papel fundamental no desenvolvimento da sociedade de informação a médio e longo prazos. A estratégia seguida no projecto e implementação das redes móveis celulares da actual geração (2G e 3G) foi a da estratificação da sua arquitectura protocolar numa estrutura modular em camadas estanques, onde cada camada do modelo é responsável pela implementação de um conjunto de funcionalidades. Neste modelo a comunicação dá-se apenas entre camadas adjacentes através de primitivas de comunicação pré-estabelecidas. Este modelo de arquitectura resulta numa mais fácil implementação e introdução de novas funcionalidades na rede. Entretanto, o facto das camadas inferiores do modelo protocolar não utilizarem informação disponibilizada pelas camadas superiores, e vice-versa acarreta uma degradação no desempenho do sistema. Este paradigma é particularmente importante quando sistemas de antenas múltiplas são implementados (sistemas MIMO). Sistemas de antenas múltiplas introduzem um grau adicional de liberdade no que respeita a atribuição de recursos rádio: o domínio espacial. Contrariamente a atribuição de recursos no domínio do tempo e da frequência, no domínio espacial os recursos rádio mapeados no domínio espacial não podem ser assumidos como sendo completamente ortogonais, devido a interferência resultante do facto de vários terminais transmitirem no mesmo canal e/ou slots temporais mas em feixes espaciais diferentes. Sendo assim, a disponibilidade de informação relativa ao estado dos recursos rádio às camadas superiores do modelo protocolar é de fundamental importância na satisfação dos critérios de qualidade de serviço exigidos. Uma forma eficiente de gestão dos recursos rádio exige a implementação de algoritmos de agendamento de pacotes de baixo grau de complexidade, que definem os níveis de prioridade no acesso a esses recursos por base dos utilizadores com base na informação disponibilizada quer pelas camadas inferiores quer pelas camadas superiores do modelo. Este novo paradigma de comunicação, designado por cross-layer resulta na maximização da capacidade de transporte de dados por parte do canal rádio móvel, bem como a satisfação dos requisitos de qualidade de serviço derivados a partir da camada de aplicação do modelo. Na sua elaboração, procurou-se que o standard IEEE 802.16e, conhecido por Mobile WiMAX respeitasse as especificações associadas aos sistemas móveis celulares de quarta geração. A arquitectura escalonável, o baixo custo de implementação e as elevadas taxas de transmissão de dados resultam num processo de multiplexagem de dados e valores baixos no atraso decorrente da transmissão de pacotes, os quais são atributos fundamentais para a disponibilização de serviços de banda larga. Da mesma forma a comunicação orientada à comutação de pacotes, inenente na camada de acesso ao meio, é totalmente compatível com as exigências em termos da qualidade de serviço dessas aplicações. Sendo assim, o Mobile WiMAX parece satisfazer os requisitos exigentes das redes móveis de quarta geração. Nesta tese procede-se à investigação, projecto e implementação de algoritmos de encaminhamento de pacotes tendo em vista a eficiente gestão do conjunto de recursos rádio nos domínios do tempo, frequência e espacial das redes móveis celulares, tendo como caso prático as redes móveis celulares suportadas no standard IEEE802.16e. Os algoritmos propostos combinam métricas provenientes da camada física bem como os requisitos de qualidade de serviço das camadas superiores, de acordo com a arquitectura de redes baseadas no paradigma do cross-layer. O desempenho desses algoritmos é analisado a partir de simulações efectuadas por um simulador de sistema, numa plataforma que implementa as camadas física e de acesso ao meio do standard IEEE802.16e.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho apresentado nesta dissertação teve por objectivo principal a concepção, modelação e desenvolvimento de uma plataforma de middleware que permitisse a integração de sistemas de informação, em todos os seus níveis (dados, lógico e apresentação), perfazendo uma federação de bibliotecas digitais distribuídas e ecléticas. Para este fim, foram estudadas as várias abordagens de modelação e organização das bibliotecas digitais, assim como os diversos sistemas e tecnologias de suporte existentes no momento inicial do trabalho. Compreendendo a existência de muitas lacunas ainda neste domínio, nomeadamente ao nível da interoperabilidade de sistemas heterogéneos e integração da semântica de metadados, decidiu-se proceder a um trabalho de investigação e desenvolvimento que pudesse apresentar eventuais soluções para o preenchimento de tais lacunas. Desta forma, surgem neste trabalho duas tecnologias, o XML e o Dublin Core, que servem de base a todas as restantes tecnologias usadas para a interoperabilidade e para a integração. Ainda utilizando estas tecnologias base, foram estudados e desenvolvidos meios simples, mas eficientes, de salvaguarda, indexação e pesquisa de informação, tentando manter a independência face aos grandes produtores de bases de dados, que só por si não resolvem alguns dos problemas mais críticos da investigação no domínio das bibliotecas digitais. ABSTRACT: The main objective of the work presented in this dissertation is the design, modulation and development of a middleware framework to allow information systems interoperability, in all their scope (data, logic and presentation), to accomplish a distributed and eclectic digital libraries federation. Several modulations and organizations were approached, and several support systems and technologies were studied. Understanding the existence of many gaps in this domain, namely in heterogeneous information systems interoperation and metadata semantic integration, it was decided to conduct a research and development work, which, eventually, could present some solutions to fill in these gaps. In this way, two technologies, XML and Dublin Core, appear to serve as the basis of all remaining technologies, to interoperate and to achieve semantic integration. Using yet these technologies, it was also studied and developed simple means, but efficient ones, to save, index and query information, preserving the independence from major data base producers, which by their selves don’t solve critical problems in the digital libraries research domain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In an information-driven society where the volume and value of produced and consumed data assumes a growing importance, the role of digital libraries gains particular importance. This work analyzes the limitations in current digital library management systems and the opportunities brought by recent distributed computing models. The result of this work is the implementation of the University of Aveiro integrated system for digital libraries and archives. It concludes by analyzing the system in production and proposing a new service oriented digital library architecture supported in a peer-to-peer infrastructure

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os Modelos de Equações Simultâneas (SEM) são modelos estatísticos com muita tradição em estudos de Econometria, uma vez que permitem representar e estudar uma vasta gama de processos económicos. Os estimadores mais usados em SEM resultam da aplicação do Método dos Mínimos Quadrados ou do Método da Máxima Verosimilhança, os quais não são robustos. Em Maronna e Yohai (1997), os autores propõem formas de “robustificar” esses estimadores. Um outro método de estimação com interesse nestes modelos é o Método dos Momentos Generalizado (GMM), o qual também conduz a estimadores não robustos. Estimadores que sofrem de falta de robustez são muito inconvenientes uma vez que podem conduzir a resultados enganadores quando são violadas as hipóteses subjacentes ao modelo assumido. Os estimadores robustos são de grande valor, em particular quando os modelos em estudo são complexos, como é o caso dos SEM. O principal objectivo desta investigação foi o de procurar tais estimadores tendo-se construído um estimador robusto a que se deu o nome de GMMOGK. Trata-se de uma versão robusta do estimador GMM. Para avaliar o desempenho do novo estimador foi feito um adequado estudo de simulação e foi também feita a aplicação do estimador a um conjunto de dados reais. O estimador robusto tem um bom desempenho nos modelos heterocedásticos considerados e, nessas condições, comporta-se melhor do que os estimadores não robustos usados no estudo. Contudo, quando a análise é feita em cada equação separadamente, a especificidade de cada equação individual e a estrutura de dependência do sistema são dois aspectos que influenciam o desempenho do estimador, tal como acontece com os estimadores usuais. Para enquadrar a investigação, o texto inclui uma revisão de aspectos essenciais dos SEM, o seu papel em Econometria, os principais métodos de estimação, com particular ênfase no GMM, e uma curta introdução à estimação robusta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo sobre o dimensionamento de redes ópticas, com vistas a obter um modelo de dimensionamento para redes de transporte sobreviventes. No estudo utilizou-se uma abordagem estatística em detrimento à determinística. Inicialmente, apresentam-se as principais tecnologias e diferentes arquitecturas utilizadas nas redes ópticas de transporte. Bem como os principais esquemas de sobrevivência e modos de transporte. São identificadas variáveis necessárias e apresenta-se um modelo dimensionamento para redes de transporte, tendo-se dado ênfase às redes com topologia em malha e considerando os modos de transporte opaco, transparente e translúcido. É feita uma análise rigorosa das características das topologias de redes de transporte reais, e desenvolve-se um gerador de topologias de redes de transporte, para testar a validade dos modelos desenvolvidos. Também é implementado um algoritmo genético para a obtenção de uma topologia optimizada para um dado tráfego. São propostas expressões para o cálculo de variáveis não determinísticas, nomeadamente, para o número médio de saltos de um pedido, coeficiente de protecção e coeficiente de restauro. Para as duas últimas, também é analisado o impacto do modelo de tráfego. Verifica-se que os resultados obtidos pelas expressões propostas são similares às obtidas por cálculo numérico, e que o modelo de tráfego não influencia significativamente os valores obtidos para os coeficientes. Finalmente, é demonstrado que o modelo proposto é útil para o dimensionamento e cálculo dos custos de capital de redes com informação incompleta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A formação do estudante de enfermagem em ensino clínico reveste-se de uma importância singular pelo contacto e vivência de situações em contexto, por lhe proporcionar a aquisição, o desenvolvimento e a consolidação de conhecimentos e competências em vários domínios, assim como de socialização com a profissão. O primeiro ensino clínico pelas actividades em contexto com os profissionais de saúde e os utentes é um período de transição particularmente marcante em termos formativos. Nele frequentemente acontece a ruptura nas suas concepções de formação e de aprendizagem, tornando-se num momento de confronto com uma formação que prepara para a incerteza e imprevisibilidade. Nesta investigação pretendemos compreender o que acontece neste período de aprendizagem, partindo da seguinte questão central de investigação: Que significado tem o primeiro ensino clínico no percurso formativo do estudante de enfermagem? O estudo desta questão exigiu o recurso a uma metodologia de natureza qualitativa baseada na estratégia estudo de caso na sua vertente multicasos. Seleccionámos três casos de estudo respectivamente do 1º, do 2º e 3º anos do Curso de Licenciatura em Enfermagem de três planos de estudos de Escolas Superiores de Enfermagem. O caso é constituído por um grupo de estudantes no primeiro ensino clínico hospitalar, enfermeiros e docentes que os orientam. Desenvolvemos uma etnometodologia em que privilegiámos a observação no terreno com participação directa do investigador, recolha documental, entrevistas etnográficas e semi-estruturadas aos vários intervenientes. A análise da informação reunida processou-se pela análise de conteúdo dos dados obtidos num percurso recursivo entre as várias fontes com apoio do programa informático Nvivo 7. Concluímos que o primeiro ensino clínico: é um período de formação estruturante, com forte impacto pela transição que se opera na postura do estudante perante a aprendizagem, pelas propriedades (trans)formativas que as vivências em contexto encerram, independentemente do ano do Curso em que este acontece; a preparação prévia dos estudantes modeliza os domínios da aprendizagem e a profundidade em que ocorre; aprendem de um modo fragmentado sem conseguirem integrar os vários domínios do conhecimento na acção; os estudantes do 1º ano dão mais significado à destreza e rapidez na realização de intervenções prescritas e à aplicação dos princípios teóricos aprendidos; a orientação dos enfermeiros, tutores e docentes é fundamental na mobilização, para a acção, dos conhecimentos teóricos ou na sua aquisição; a vivência das situações em contexto e o ambiente relacional estão entre os factores mais influentes; a prática orientada com atenção individualizada, questionamento, análise e reflexão em díade supervisor-aluno, são fundamentais no desenvolvimento do pensamento crítico; ser supervisor deve ser assumido pelo docente e pelo enfermeiro ou tutor como um trabalho de articulação e proximidade com e no contexto onde o ensino clínico decorre; a resposta adequada às funções específicas de supervisão exige participação activa de equipas de enfermagem mais preparadas e hierarquicamente apoiadas; o docente pelo conhecimento dos estudantes, dos fins e objectivos da formação, pelos desafios e exigência que coloca tem um papel insubstituível. No percurso da investigação novas questões emergiram nomeadamente no que se prende com: os modelos de articulação entre instituições de saúde e escolares; com a formação dos supervisores e; o papel dos pares no início da aprendizagem dos estudantes em contexto clínico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The renewed concern in assessing risks and consequences from technological hazards in industrial and urban areas continues emphasizing the development of local-scale consequence analysis (CA) modelling tools able to predict shortterm pollution episodes and exposure effects on humans and the environment in case of accident with hazardous gases (hazmat). In this context, the main objective of this thesis is the development and validation of the EFfects of Released Hazardous gAses (EFRHA) model. This modelling tool is designed to simulate the outflow and atmospheric dispersion of heavy and passive hazmat gases in complex and build-up areas, and to estimate the exposure consequences of short-term pollution episodes in accordance to regulatory/safety threshold limits. Five main modules comprising up-to-date methods constitute the model: meteorological, terrain, source term, dispersion, and effects modules. Different initial physical states accident scenarios can be examined. Considered the main core of the developed tool, the dispersion module comprises a shallow layer modelling approach capable to account the main influence of obstacles during the hazmat gas dispersion phenomena. Model validation includes qualitative and quantitative analyses of main outputs by the comparison of modelled results against measurements and/or modelled databases. The preliminary analysis of meteorological and source term modules against modelled outputs from extensively validated models shows the consistent description of ambient conditions and the variation of the hazmat gas release. Dispersion is compared against measurements observations in obstructed and unobstructed areas for different release and dispersion scenarios. From the performance validation exercise, acceptable agreement was obtained, showing the reasonable numerical representation of measured features. In general, quality metrics are within or close to the acceptance limits recommended for ‘non-CFD models’, demonstrating its capability to reasonably predict hazmat gases accidental release and atmospheric dispersion in industrial and urban areas. EFRHA model was also applied to a particular case study, the Estarreja Chemical Complex (ECC), for a set of accidental release scenarios within a CA scope. The results show the magnitude of potential effects on the surrounding populated area and influence of the type of accident and the environment on the main outputs. Overall the present thesis shows that EFRHA model can be used as a straightforward tool to support CA studies in the scope of training and planning, but also, to support decision and emergency response in case of hazmat gases accidental release in industrial and built-up areas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work reported in this thesis aimed at applying the methodology known as metabonomics to the detailed study of a particular type of beer and its quality control, with basis on the use of multivariate analysis (MVA) to extract meaningful information from given analytical data sets. In Chapter 1, a detailed description of beer is given considering the brewing process, main characteristics and typical composition of beer, beer stability and the commonly used analytical techniques for beer analysis. The fundamentals of the analytical methods employed here, namely nuclear magnetic resonance (NMR) spectroscopy, gas-chromatography-mass spectrometry (GC-MS) and mid-infrared (MIR) spectroscopy, together with the description of the metabonomics methodology are described shortly in Chapter 2. In Chapter 3, the application of high resolution NMR to characterize the chemical composition of a lager beer is described. The 1H NMR spectrum obtained by direct analysis of beer show a high degree of complexity, confirming the great potential of NMR spectroscopy for the detection of a wide variety of families of compounds, in a single run. Spectral assignment was carried out by 2D NMR, resulting in the identification of about 40 compounds, including alcohols, amino acids, organic acids, nucleosides and sugars. In a second part of Chapter 3, the compositional variability of beer was assessed. For that purpose, metabonomics was applied to 1H NMR data (NMR/MVA) to evaluate beer variability between beers from the same brand (lager), produced nationally but differing in brewing site and date of production. Differences between brewing sites and/or dates were observed, reflecting compositional differences related to particular processing steps, including mashing, fermentation and maturation. Chapter 4 describes the quantification of organic acids in beer by NMR, using different quantitative methods: direct integration of NMR signals (vs. internal reference or vs. an external electronic reference, ERETIC method) and by quantitative statistical methods (using the partial least squares (PLS) regression) were developed and compared. PLS1 regression models were built using different quantitative methods as reference: capillary electrophoresis with direct and indirect detection and enzymatic essays. It was found that NMR integration results generally agree with those obtained by the best performance PLS models, although some overestimation for malic and pyruvic acids and an apparent underestimation for citric acid were observed. Finally, Chapter 5 describes metabonomic studies performed to better understand the forced aging (18 days, at 45 ºC) beer process. The aging process of lager beer was followed by i) NMR, ii) GC-MS, and iii) MIR spectroscopy. MVA methods of each analytical data set revealed clear separation between different aging days for both NMR and GC-MS data, enabling the identification of compounds closely related with the aging process: 5-hydroxymethylfurfural (5-HMF), organic acids, γ-amino butyric acid (GABA), proline and the ratio linear/branched dextrins (NMR domain) and 5-HMF, furfural, diethyl succinate and phenylacetaldehyde (known aging markers) and, for the first time, 2,3-dihydro-3,5-dihydroxy-6-methyl-4(H)-pyran-4-one xii (DDMP) and maltoxazine (by GC-MS domain). For MIR/MVA, no aging trend could be measured, the results reflecting the need of further experimental optimizations. Data correlation between NMR and GC-MS data was performed by outer product analysis (OPA) and statistical heterospectroscopy (SHY) methodologies, enabling the identification of further compounds (11 compounds, 5 of each are still unassigned) highly related with the aging process. Data correlation between sensory characteristics and NMR and GC-MS was also assessed through PLS1 regression models using the sensory response as reference. The results obtained showed good relationships between analytical data response and sensory response, particularly for the aromatic region of the NMR spectra and for GC-MS data (r > 0.89). However, the prediction power of all built PLS1 regression models was relatively low, possibly reflecting the low number of samples/tasters employed, an aspect to improve in future studies.