91 resultados para Complexidade computacional

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A utilização combinada de espectroscopia vibracional e de cálculos envolvendo a teoria do funcional de densidade (DFT) possibilita o estudo de ligações de hidrogénio em fase condensada, assim como a análise da estrutura molecular dos sistemas em estudo. Por um lado, a espectroscopia vibracional permite a detecção de associações moleculares, enquanto os métodos computacionais auxiliam na obtenção de informação referente aos mecanismos de associação, nomeadamente no que diz respeito à possível estrutura de dímeros e compostos de inclusão em ciclodextrinas e às energias de interacção e de inclusão. O estudo que originou a presente dissertação pretende contribuir para o reforço da aplicação de estudos espectroscópicos e computacionais na elucidação de diversos fenómenos químicos, com especial destaque para o papel desempenhado por interacções intermoleculares fracas na estrutura e propriedades de materiais moleculares. No âmbito desta tese foram investigados os seguintes tópicos: polimorfismo e pseudopolimorfismo em sólidos farmacêuticos, transições de fase em misturas binárias de ácidos gordos, inclusão em ciclodextrinas, interacção de compostos farmacêuticos com superfícies metálicas e formação de agregados de água em materiais híbridos orgânicos-inorgânicos. Os sistemas foram analisados utilizando a espectroscopia vibracional – particularmente a espectroscopia de difusão de Raman – como técnica fundamental. Para uma melhor caracterização de processos envolvendo transições de fase, foram efectuados estudos com variação de temperatura, variação de humidade relativa e substituição isotópica. O estudo da interacção com superfícies metálicas foi realizado por espectroscopia de Raman intensificada à superfície. Dada a complexidade dos sistemas em estudo, a informação obtida por espectroscopia vibracional foi complementada por resultados de cálculos mecânico-quânticos. Em particular, os cálculos DFT foram utilizados para a optimização de geometrias e previsão de frequências vibracionais de moléculas e associações moleculares, permitindo assim a análise e interpretação de espectros vibracionais e a caracterização da estrutura de materiais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho aborda o problema da estimação de canal e da estimação de desvio de frequência em sistemas OFDM com múltiplas configurações de antenas no transmissor e no receptor. Nesta tese é apresentado o estudo teórico sobre o impacto da densidade de pilotos no desempenho da estimação de canal em sistemas OFDM e são propostos diversos algoritmos para estimação de canal e estimação de desvio de frequência em sistemas OFDM com antenas únicas no transmissor e receptor, com diversidade de transmissão e MIMO. O estudo teórico culmina com a formulação analítica do erro quadrático médio de um estimador de canal genérico num sistema OFDM que utilize pilotos dedicados, distribuidos no quadro transmitido em padrões bi-dimensionais. A formulação genérica é concretizada para o estimador bi-dimensional LS-DFT, permitindo aferir da exactidão da formulação analítica quando comparada com os valores obtidos por simulação do sistema abordado. Os algoritmos de estimação investigados tiram partido da presença de pilotos dedicados presentes nos quadros transmitidos para estimar com precisão os parâmetros pretendidos. Pela sua baixa complexidade, estes algoritmos revelam-se especialmente adequados para implementação em terminais móveis com capacidade computacional e consumo limitados. O desempenho dos algoritmos propostos foi avaliado por meio de simulação do sistema utilizado, recorrendo a modelos aceites de caracterização do canal móvel multipercurso. A comparação do seu desempenho com algoritmos de referência permitir aferir da sua validade. ABSTRACT: The present work focus on the problem of channel estimation and frequency offset estimation in OFDM systems, with different antenna configurations at both the transmitter and the receiver. This thesis presents the theoretical study of the impact of the pilot density in the performance of the channel estimation in OFDM systems and proposes several channel and frequency offset algorithms for OFDM systems with single antenna at both transmitter and receiver, with transmitter diversity and MIMO. The theoretical study results in the analytical formulation of the mean square error of a generic channel estimator for an OFDM system using dedicated pilots, distributed in the transmitted frame in two-dimensional patterns. The generic formulation is implemented for the two-dimensional LS-DFT estimator to verify the accuracy of the analytical formulation when compared with the values obtained by simulation of the discussed system. The investigated estimation algorithms take advantage of the presence of dedicated pilots present in the transmitted frames to accurately estimate the required parameters. Due to its low complexity, these algorithms are especially suited for implementation in mobile terminals with limited processing power and consumption. The performance of the proposed algorithms was evaluated by simulation of the used system, using accepted multipath mobile channel models. The comparison of its performance with the one of reference algorithms measures its validity.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos maiores avanços científicos do século XX foi o desenvolvimento de tecnologia que permite a sequenciação de genomas em larga escala. Contudo, a informação produzida pela sequenciação não explica por si só a sua estrutura primária, evolução e seu funcionamento. Para esse fim novas áreas como a biologia molecular, a genética e a bioinformática são usadas para estudar as diversas propriedades e funcionamento dos genomas. Com este trabalho estamos particularmente interessados em perceber detalhadamente a descodificação do genoma efectuada no ribossoma e extrair as regras gerais através da análise da estrutura primária do genoma, nomeadamente o contexto de codões e a distribuição dos codões. Estas regras estão pouco estudadas e entendidas, não se sabendo se poderão ser obtidas através de estatística e ferramentas bioinfomáticas. Os métodos tradicionais para estudar a distribuição dos codões no genoma e seu contexto não providenciam as ferramentas necessárias para estudar estas propriedades à escala genómica. As tabelas de contagens com as distribuições de codões, assim como métricas absolutas, estão actualmente disponíveis em bases de dados. Diversas aplicações para caracterizar as sequências genéticas estão também disponíveis. No entanto, outros tipos de abordagens a nível estatístico e outros métodos de visualização de informação estavam claramente em falta. No presente trabalho foram desenvolvidos métodos matemáticos e computacionais para a análise do contexto de codões e também para identificar zonas onde as repetições de codões ocorrem. Novas formas de visualização de informação foram também desenvolvidas para permitir a interpretação da informação obtida. As ferramentas estatísticas inseridas no modelo, como o clustering, análise residual, índices de adaptação dos codões revelaram-se importantes para caracterizar as sequências codificantes de alguns genomas. O objectivo final é que a informação obtida permita identificar as regras gerais que governam o contexto de codões em qualquer genoma.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A domótica é uma área com grande interesse e margem de exploração, que pretende alcançar a gestão automática e autónoma de recursos habitacionais, proporcionando um maior conforto aos utilizadores. Para além disso, cada vez mais se procuram incluir benefícios económicos e ambientais neste conceito, por forma a garantir um futuro sustentável. O aquecimento de água (por meios elétricos) é um dos fatores que mais contribui para o consumo de energia total de uma residência. Neste enquadramento surge o tema “algoritmos inteligentes de baixa complexidade”, com origem numa parceria entre o Departamento de Eletrónica, Telecomunicações e Informática (DETI) da Universidade de Aveiro e a Bosch Termotecnologia SA, que visa o desenvolvimento de algoritmos ditos “inteligentes”, isto é, com alguma capacidade de aprendizagem e funcionamento autónomo. Os algoritmos devem ser adaptados a unidades de processamento de 8 bits para equipar pequenos aparelhos domésticos, mais propriamente tanques de aquecimento elétrico de água. Uma porção do desafio está, por isso, relacionada com as restrições computacionais de microcontroladores de 8 bits. No caso específico deste trabalho, foi determinada a existência de sensores de temperatura da água no tanque como a única fonte de informação externa aos algoritmos, juntamente com parâmetros pré-definidos pelo utilizador que estabelecem os limiares de temperatura máxima e mínima da água. Partindo deste princípio, os algoritmos desenvolvidos baseiam-se no perfil de consumo de água quente, observado ao longo de cada semana, para tentar prever futuras tiragens de água e, consequentemente, agir de forma adequada, adiantando ou adiando o aquecimento da água do tanque. O objetivo é alcançar uma gestão vantajosa entre a economia de energia e o conforto do utilizador (água quente), isto sem que exista necessidade de intervenção direta por parte do utilizador final. A solução prevista inclui também o desenvolvimento de um simulador que permite observar, avaliar e comparar o desempenho dos algoritmos desenvolvidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis focuses on digital equalization of nonlinear fiber impairments for coherent optical transmission systems. Building from well-known physical models of signal propagation in single-mode optical fibers, novel nonlinear equalization techniques are proposed, numerically assessed and experimentally demonstrated. The structure of the proposed algorithms is strongly driven by the optimization of the performance versus complexity tradeoff, envisioning the near-future practical application in commercial real-time transceivers. The work is initially focused on the mitigation of intra-channel nonlinear impairments relying on the concept of digital backpropagation (DBP) associated with Volterra-based filtering. After a comprehensive analysis of the third-order Volterra kernel, a set of critical simplifications are identified, culminating in the development of reduced complexity nonlinear equalization algorithms formulated both in time and frequency domains. The implementation complexity of the proposed techniques is analytically described in terms of computational effort and processing latency, by determining the number of real multiplications per processed sample and the number of serial multiplications, respectively. The equalization performance is numerically and experimentally assessed through bit error rate (BER) measurements. Finally, the problem of inter-channel nonlinear compensation is addressed within the context of 400 Gb/s (400G) superchannels for long-haul and ultra-long-haul transmission. Different superchannel configurations and nonlinear equalization strategies are experimentally assessed, demonstrating that inter-subcarrier nonlinear equalization can provide an enhanced signal reach while requiring only marginal added complexity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As escolas do 1º ciclo e os jardins-de-infância confrontaram-se recentemente com a obrigatoriedade de se organizarem em associação com outras escolas do 2º e 3º ciclos do ensino básico através dos chamados Agrupamentos de Escolas. Estes Agrupamentos (verticais) poderão ser entendidos como funcionando num certo modelo de rede piramidal ou seja, cria-se um centro de decisão – a escola-sede do Agrupamento (por norma, uma escola do 2º e 3º ciclo do ensino básico, com os seus órgãos de gestão de topo) – relativamente ao qual se afiliam uma série de escolas periféricas, designadamente da educação préescolar e do 1º ciclo do ensino básico. Procuraremos, neste estudo, problematizar a situação periférica destes estabelecimentos de educação e de ensino, tendo em conta a complexidade das regulações e tensões a que estão sujeitos e que colocam no centro das atenções a figura do Coordenador de estabelecimento. É com base num estudo de caso sobre um Agrupamento de Escolas, situado no norte do país, que procurámos perceber qual o papel que os Coordenadores de estabelecimento assumem ao nível da gestão intermédia do Agrupamento, analisando em particular a sua condição de líderes periféricos deste tipo de organização escolar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enquadrado numa perspectiva sociocultural da investigação em Didáctica de Línguas, assumindo quer a singularidade da relação do sujeito com o saber quer as dimensões cognitivas, pessoais e sociais da linguagem escrita, este trabalho baseia-se no pressuposto de que deve estar subjacente ao processo de aprender e ensinar a escrever, numa perspectiva multifuncional e processual, o conhecimento sobre a relação dos alunos – sujeitos – com a escrita, em contextos escolares e extra-escolares. Partindo de uma reconfiguração do modelo de análise da relação com a escrita, desenvolvemos um projecto de investigação que compreende uma fase extensiva e outra intensiva. Na primeira, recolhemos dados que nos conduziram a constatações sobre a escrita extra-escolar e escolar de alunos do 2º e 3º ciclos do Ensino Básico, em escolas do distrito de Aveiro. Na segunda, empreendemos um estudo de caso, com uma turma de 7º ano, que nos permitiu conhecer a relação com a escrita dos sujeitos e, em função disso, conceber uma oficina sobre a escrita, implementada com os sujeitos de investigação, em contexto escolar. A descrição de dimensões que configuram a complexidade de relações com a escrita dos sujeitos levou-nos à conceptualização de três ideais-tipo de relação com a escrita, que se constituem em modos de interpretar este fenómeno pluridimensional e instável. Os resultados também evidenciam a existência de representações-obstáculo sobre a escrita em clara ligação às práticas escriturais escolares. Encontrámos, porém, indícios de evolução de uma relação mais positiva com o (saber) escrever; estes sugerem que dispositivos didácticos que não ignorem a perspectiva identitária de adesão à escrita, conciliando-a com uma perspectiva epistémica, serão mais consequentes para uma melhoria das aprendizagens escriturais, de que a relação pessoal com a escrita é inalienável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As mudanças sociais que, na actualidade, pressionam e desafiam a Escola, nomeadamente quanto aos papéis, funções e desempenho dos professores, implicam a necessidade de repensar a sua formação para que possam responder mais adequadamente aos desafios emergentes. Estes têm particularmente a ver com os novos saberes que essas condições exigem a todos os cidadãos e que são entendidos, do ponto de vista epistemológico, como saberes para agir responsavelmente. Assim, o principal objectivo deste estudo consiste em aprofundar o conhecimento acerca das ambiências e culturas de formação inicial de professores do 1. º Ciclo do Ensino Básico na Universidade de Aveiro, nomeadamente dos processos de supervisão ao nível da disciplina de Prática Pedagógica, tendo em consideração que as características de monodocência dos profissionais deste ciclo de ensino pressupõem um perfil de competência específico. A investigação, de natureza qualitativa, desenvolveu-se de acordo com as abordagens próprias da complexidade e da sistémica, das quais relevamos os princípios da totalidade em que os fenómenos são percebidos como sistemas globais e dinâmicos e da recursividade ao admitirmos a possibilidade de uma relação dialéctica entre os diversos subsistemas considerados. Do ponto de vista metodológico, no sentido de construir uma visão integrada do objecto em estudo, foi utilizado um conjunto de procedimentos específicos (mixed-methods), nomeadamente análise documental, inquirição por questionário e por entrevista semi-estruturada. O questionário foi aplicado à totalidade de licenciados em Ensino do 1.º Ciclo do Ensino Básico pela Universidade de Aveiro, compreendendo o período de 1998 até 2005. A entrevista foi realizada junto de supervisores (cooperantes e institucionais) que vêm acompanhando os núcleos de Prática Pedagógica, no decurso e ao longo do 4.º ano da referida Licenciatura. Quanto aos resultados do estudo, estes podem ser lidos em função de três eixos. Relativamente ao primeiro, que genericamente se refere à evolução dos saberes básicos dos alunos, os contributos parecem sugerir a necessidade de alicerçar os processos de ensino/aprendizagem não apenas nas literacias ler, escrever e contar, como também no desenvolvimento de saberes básicos de natureza geral e transversal, percebidos como competências, tais como aprender a pensar, aprender a aprender, aprender a comunicar e a resolver problemas, numa perspectiva de aprender a ser. O segundo eixo de leitura tem a ver com as competências requeridas aos professores para o desenvolvimento desses saberes estruturantes. De acordo com os dados recolhidos na fase extensiva do estudo, estes parecem coerentes com a revisão de literatura realizada, bem como com os normativos legais que, em Portugal, enquadram o perfil de desempenho dos professores do 1.º Ciclo. Porém, sugerem a necessidade de interligar as dimensões saber, saber-fazer e saber ser, com ênfase nesta última. À semelhança dos resultados referidos no ponto anterior, também o referencial de competências proposto para os professores integra as dimensões saber, saber fazer e saber ser, no qual são valorizadas as competências de reflexão crítica, de aprender a aprender e, de igual forma, o conhecimento profissional nas suas múltiplas dimensões. O terceiro eixo relaciona-se com a qualidade das ambiências e culturas de formação e supervisão. De forma geral, os dados apontam que ambientes que possibilitem uma dimensão de prática curricular alargada em contextos diversificados, que valorizem os princípios da pessoalidade e respeito pelo Outro e que estimulem a reflexão crítica, a auto-implicação dos formandos, o desenvolvimento de competências pessoais e de desenvolvimento profissional (destacando-se as competências para aprender a aprender, a comunicar, a investigar e reflectir), parecem adequar se melhor ao desenvolvimento pessoal e profissional destes professores, no contexto das sociedades contemporâneas. Assim, é possível verificar que os eixos considerados remetem para um conjunto recursivo de saberes e competências que, em diferentes níveis, implicam um compromisso com a acção, numa visão de mundo comprometida com as ideias de bem comum, ou seja, de cidadania universal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho põe em evidência o valor formativo da prática profissional supervisionada e da escrita reflexiva com feedback co-construtivo sobre a praxis enquanto eixos estruturantes da construção de competências profissionais na formação inicial de professores do 1.º ciclo do ensino básico. Integrada no paradigma da complexidade e assumindo, do ponto de vista teórico-epistemológico, o diálogo entre o paradigma construtivista da complexidade (Lerbet 1986, 2004; Morin, 1994, s.d.; Le Moigne, 2002, 2003a), o paradigma da complexificação e da epistemologia da escuta/controvérsia (Correia, 2001), o experiencialismo crítico (Alarcão, 2001b) e o construtivismo/socioconstrutivismo (Piaget, 1975; Perret-Clermont, 1978; Morgado, 1988), a investigação que desenvolvemos teve como objectivo central saber como e em que condições, num contexto de formação reflexiva (Schön, 1983, 1992; Zeichner, 1993; Alarcão, 1996b, 2001c; Marcelo, 1999; Sá-Chaves, 2002; Alarcão e Tavares, 2003; Perrenoud, 2004) e, simultaneamente, de investigação (Moreira e Alarcão, 1997; Elliot, 1997; Alarcão, 2001a, 2001b; Moreira, 2001; Esteves, 2002; Estrela, 2003), se opera a construção da profissionalidade e da identidade social docente (Perrenoud, 1995, 2001b; Le Boterf, 1999; DeSeCo, 2002), ou seja, compreender a forma como se estabelecem e evoluem as dimensões que caracterizam o conhecimento profissional e os factores (activadores e inibidores) de desenvolvimento nele envolvidos. Para atingir este objectivo, propusemo-nos desenhar e realizar uma investigação centrada numa metodologia de formação – investigação-acção (Bataille, 1981; Pourtois, 1981; Morin, 1985; Moreira, 2001), de orientação reflexiva, focada no desenvolvimento pessoal e profissional dos alunos do 4.º ano do curso de formação de professores do 1.º CEB, da Escola Superior de Educação de Coimbra. Adoptou-se, por isso, uma dupla modelização para a investigação: o estudo de caso (para a investigação) e a investigação-acção (para a formação). O pólo técnico da investigação (Bruyne, Herman e Schoutheete, 1991) configurou, assim, como modo de investigação, o estudo de caso (multicaso) e as entrevistas, os interrogatórios clínicos (realizados no âmbito da pós-observação da componente de formação Estágio), a escrita regular de narrativas autobiográficas centrada nas trajectórias de formação (de processo e de síntese), a observação de aulas, entre outros, como instrumentos de recolha de dados que pareceram adequados à metodologia essencialmente qualitativa que elegemos. Os mesmos instrumentos, articulada e conjuntamente com outros adoptados no âmbito do desenvolvimento da unidade curricular Observação e Intervenção Educativa IV - Seminário de Análise e Reflexão Práticas, assumiram também funções formativas, ou seja, constituíram, pela análise dos dados que possibilitaram, ferramentas importantes de auto, hetero e co-formação e, concomitantemente, de investigação. A triangulação dos dados provenientes destas múltiplas fontes de informação assegurou o contraditório na gestão dos dados garantindo, deste modo, a validade das conclusões da investigação. Os dados da observação/supervisão das práticas pedagógicas e respectiva análise permitiu-nos: 1) identificar o estabelecimento e a evolução de configurações de relação entre a aprendizagem de competências básicas para o desempenho docente no 1.º CEB e certos aspectos explícitos do contexto de formação inicial tais como a iniciação à prática profissional supervisionada e a escrita reflexiva com feedback co-construtivo; 2) perspectivar, no contexto da iniciação à prática profissional supervisionada, a existência de um espaço de intervenção comum co-concebido, co-planificado, co-desenvolvido e coavaliado pelas instituições formadora e cooperantes em torno de um projecto de formação onde o diálogo prática-teoria-prática emerge como central na construção da complexa rede de competências profissionais que hoje se reclamam na formação inicial de professores; 3) conceber o professor como um profissional crítico-reflexivo e a reflexão e a investigação partilhada como dispositivos centrais de auto-avaliação e auto-regulação do desempenho profissional e do desenvolvimento ao longo da vida; 4) percepcionar a formação inicial do professor de 1.º CEB como o início do processo de vinculação/socialização à profissão. Estas conclusões podem, a nosso ver, contribuir, no quadro de uma colaboração interinstitucional co-formadora, que do ponto de vista das políticas de formação de professores se impõe redefinir, para o reconhecimento e valorização da importância dos contextos de prática supervisionada e da escrita autobiográfica com feedback co-construtivo no desenvolvimento profissional e identitário na formação inicial de educadores/professores e, simultaneamente, sustentar, ancorada numa nova ética de investigação, a teoria da formação na perspectiva da epistemologia do sujeito aprendente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução do fluxo de informação e os potenciais da comunicação entre pessoas têm-se revelado deveras importante para o sucesso de diferentes organizações. A escola, enquanto organização social, apresenta uma complexidade natural própria a que se juntam todas as valências de ordem educativa, curricular e pedagógica. Tanto no âmbito educativo como organizacional, as Tecnologias de Informação e Comunicação (TIC) têm vindo a assumir um papel cada vez mais influente e imprescindível. Baseado numa metodologia de trabalho participativo e colaborativo, a construção de “palcos virtuais” resulta de uma análise de requisitos funcionais. Deste modo elabora-se um diagnóstico das necessidades de informação pela replicação das práticas diárias que podem ser quer suportadas, quer melhoradas por esta nova solução, fazendo-se um aproveitamento dos recursos físicos e humanos existentes nas escolas. A partir da iniciativa individual de um professor do grupo de informática da ESEN (Escola Secundária de Emídio Navarro – Viseu), teve início em 1999 o projecto ESEN-Net, como uma proposta de metodologia genérica para a construção de soluções baseadas em intranets para a gestão pedagógica de escolas do ensino secundário. O objectivo central deste trabalho é estudar uma comunidade que desenvolve um projecto de integração das TIC numa escola secundária, no sentido de proporcionar elementos que possam servir como contributos para melhorar a sua organização e, eventualmente, como referência para o desenvolvimento de projectos idênticos noutras escolas. A recolha de dados demonstra que a integração da TIC e o palco virtual ESEN-net veio transformar as práticas diárias na comunidade educativa através da utilização das redes telemáticas como instrumentos de ensino-aprendizagem. As TIC e o palco virtual ESEN-net vieram trazer benefícios à comunidade escolar, facilitando assim a criação e partilha de informação e contribuindo para a criação e desenvolvimento de uma comunidade virtual, onde a construção do saber pode ser feita de uma forma activa e partilhada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na última década tem-se assistido a um crescimento exponencial das redes de comunicações sem fios, nomeadamente no que se refere a taxa de penetração do serviço prestado e na implementação de novas infra-estruturas em todo o globo. É ponto assente neste momento que esta tendência irá não só continuar como se fortalecer devido à convergência que é esperada entre as redes móveis sem fio e a disponibilização de serviços de banda larga para a rede Internet fixa, numa evolução para um paradigma de uma arquitectura integrada e baseada em serviços e aplicações IP. Por este motivo, as comunicações móveis sem fios irão ter um papel fundamental no desenvolvimento da sociedade de informação a médio e longo prazos. A estratégia seguida no projecto e implementação das redes móveis celulares da actual geração (2G e 3G) foi a da estratificação da sua arquitectura protocolar numa estrutura modular em camadas estanques, onde cada camada do modelo é responsável pela implementação de um conjunto de funcionalidades. Neste modelo a comunicação dá-se apenas entre camadas adjacentes através de primitivas de comunicação pré-estabelecidas. Este modelo de arquitectura resulta numa mais fácil implementação e introdução de novas funcionalidades na rede. Entretanto, o facto das camadas inferiores do modelo protocolar não utilizarem informação disponibilizada pelas camadas superiores, e vice-versa acarreta uma degradação no desempenho do sistema. Este paradigma é particularmente importante quando sistemas de antenas múltiplas são implementados (sistemas MIMO). Sistemas de antenas múltiplas introduzem um grau adicional de liberdade no que respeita a atribuição de recursos rádio: o domínio espacial. Contrariamente a atribuição de recursos no domínio do tempo e da frequência, no domínio espacial os recursos rádio mapeados no domínio espacial não podem ser assumidos como sendo completamente ortogonais, devido a interferência resultante do facto de vários terminais transmitirem no mesmo canal e/ou slots temporais mas em feixes espaciais diferentes. Sendo assim, a disponibilidade de informação relativa ao estado dos recursos rádio às camadas superiores do modelo protocolar é de fundamental importância na satisfação dos critérios de qualidade de serviço exigidos. Uma forma eficiente de gestão dos recursos rádio exige a implementação de algoritmos de agendamento de pacotes de baixo grau de complexidade, que definem os níveis de prioridade no acesso a esses recursos por base dos utilizadores com base na informação disponibilizada quer pelas camadas inferiores quer pelas camadas superiores do modelo. Este novo paradigma de comunicação, designado por cross-layer resulta na maximização da capacidade de transporte de dados por parte do canal rádio móvel, bem como a satisfação dos requisitos de qualidade de serviço derivados a partir da camada de aplicação do modelo. Na sua elaboração, procurou-se que o standard IEEE 802.16e, conhecido por Mobile WiMAX respeitasse as especificações associadas aos sistemas móveis celulares de quarta geração. A arquitectura escalonável, o baixo custo de implementação e as elevadas taxas de transmissão de dados resultam num processo de multiplexagem de dados e valores baixos no atraso decorrente da transmissão de pacotes, os quais são atributos fundamentais para a disponibilização de serviços de banda larga. Da mesma forma a comunicação orientada à comutação de pacotes, inenente na camada de acesso ao meio, é totalmente compatível com as exigências em termos da qualidade de serviço dessas aplicações. Sendo assim, o Mobile WiMAX parece satisfazer os requisitos exigentes das redes móveis de quarta geração. Nesta tese procede-se à investigação, projecto e implementação de algoritmos de encaminhamento de pacotes tendo em vista a eficiente gestão do conjunto de recursos rádio nos domínios do tempo, frequência e espacial das redes móveis celulares, tendo como caso prático as redes móveis celulares suportadas no standard IEEE802.16e. Os algoritmos propostos combinam métricas provenientes da camada física bem como os requisitos de qualidade de serviço das camadas superiores, de acordo com a arquitectura de redes baseadas no paradigma do cross-layer. O desempenho desses algoritmos é analisado a partir de simulações efectuadas por um simulador de sistema, numa plataforma que implementa as camadas física e de acesso ao meio do standard IEEE802.16e.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução observada nas redes de comunicações durante a última década traduziu-se na diversificação de serviços que utilizam a rede, no aumento das taxas de transferência e na massificação da utilização de serviços de acesso à Internet e de comunicações celulares. Durante esta década, várias organizações, das quais se destacam os operadores de telecomunicações, têm dedicado consideráveis esforços no sentido de definir e normalizar arquitecturas de redes de próxima geração. A principal característica deste tipo de rede reside no facto de possuir uma arquitectura modular capaz de fornecer serviços multimédia a clientes de uma rede de acesso com características tecnológicas heterogéneas. Os trabalhos de normalização das arquitecturas de rede NGN têm-se limitado, até ao momento, a especificar detalhes relativos ao funcionamento da rede não tendo ainda sido definida a arquitectura de gestão. Em termos de tecnologias de gestão de redes, foram propostos nas últimas duas décadas novos paradigmas de gestão, novos modelos de dados, novos protocolos de transporte e várias linguagens de definição de informação de gestão. Os modelos de dados têm vindo a ser enriquecidos, os protocolos são mais flexíveis e poderosos, as soluções de gestão oferecem interoperabilidade acrescida e as linguagens permitem definir formatos de configuração mais ricos. Simultaneamente tem crescido a complexidade das soluções de gestão, aumentado a sobrecarga causada pelo aumento de complexidade nos equipamentos bem como nas plataformas computacionais que suportam os sistemas de gestão. O presente trabalho propõe uma solução de gestão para redes NGN capaz de gerir os recursos de rede garantindo Qualidade de Serviço. A solução de gestão proposta inclui uma plataforma de execução de políticas que utiliza os eventos ocorridos na rede para empreender acções de configuração, autonomizando o processo de gestão. Inclui uma avaliação da complexidade de várias tecnologias de gestão estudando a sobrecarga causada pela tecnologia tanto no processo de gestão como na operação da rede. É ainda estudada a escalabilidade das várias tecnologias e analisado o seu comportamento num cenário da rede de um operador de telecomunicações. O trabalho propõe ainda uma metodologia de configuração integrada dos elementos de gestão, através de uma interface de configuração amigável para o administrador do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tal como o título indica, esta tese estuda problemas de cobertura com alcance limitado. Dado um conjunto de antenas (ou qualquer outro dispositivo sem fios capaz de receber ou transmitir sinais), o objectivo deste trabalho é calcular o alcance mínimo das antenas de modo a que estas cubram completamente um caminho entre dois pontos numa região. Um caminho que apresente estas características é um itinerário seguro. A definição de cobertura é variável e depende da aplicação a que se destina. No caso de situações críticas como o controlo de fogos ou cenários militares, a definição de cobertura recorre à utilização de mais do que uma antena para aumentar a eficácia deste tipo de vigilância. No entanto, o alcance das antenas deverá ser minimizado de modo a manter a vigilância activa o maior tempo possível. Consequentemente, esta tese está centrada na resolução deste problema de optimização e na obtenção de uma solução particular para cada caso. Embora este problema de optimização tenha sido investigado como um problema de cobertura, é possível estabelecer um paralelismo entre problemas de cobertura e problemas de iluminação e vigilância, que são habitualmente designados como problemas da Galeria de Arte. Para converter um problema de cobertura num de iluminação basta considerar um conjunto de luzes em vez de um conjunto de antenas e submetê-lo a restrições idênticas. O principal tema do conjunto de problemas da Galeria de Arte abordado nesta tese é a 1-boa iluminação. Diz-se que um objecto está 1-bem iluminado por um conjunto de luzes se o invólucro convexo destas contém o objecto, tornando assim este conceito num tipo de iluminação de qualidade. O objectivo desta parte do trabalho é então minimizar o alcance das luzes de modo a manter uma iluminação de qualidade. São também apresentadas duas variantes da 1-boa iluminação: a iluminação ortogonal e a boa !-iluminação. Esta última tem aplicações em problemas de profundidade e visualização de dados, temas que são frequentemente abordados em estatística. A resolução destes problemas usando o diagrama de Voronoi Envolvente (uma variante do diagrama de Voronoi adaptada a problemas de boa iluminação) é também proposta nesta tese.