26 resultados para processamento da informação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A necessidade de se educar para o desenvolvimento sustentável é um ponto assente nas atuais políticas educativas internacionais. Considera-se fulcral desenvolver nos alunos as competências necessárias para analisar criticamente e tomar de decisão frente às atuais problemáticas relacionadas com as dimensões ambiental, social e económica, sob uma perspetiva sistémica. No entanto, a literatura de referência aponta a escassez de recursos intencionalmente concebidos para apoiar práticas didático-pedagógicas dos professores mais coerentes com estas diretrizes. Assim, o presente estudo tem por finalidade desenvolver estratégias, conceber e explorar recursos didáticos multimédia para promover a Educação para o Desenvolvimento Sustentável (EDS), no contexto da Educação em Ciência com orientação Ciência-Tecnologia-Sociedade (CTS), através da integração das Tecnologias da Informação e Comunicação (TIC) e do envolvimento familiar (EF) nos primeiros anos de escolaridade, assim como compreender os impactes dos mesmos na alteração das práticas dos professores tornando-as mais coerentes com as orientações EDS/CTS. Face a esta finalidade, adotámos uma metodologia de natureza qualitativa, nomeadamente o Estudo de Caso na vertente multicasos, ao longo da investigação. O estudo envolveu o 1º Ciclo do Ensino Básico de um Agrupamento de Escolas de Aveiro (Portugal), nomeadamente professores, alunos e respetivos familiares. Por entender serem os professores um elemento-chave de mudança do processo educativo, o estudo envolveu a conceção e implementação de uma Oficina de Formação de professores e uma comunidade online, a servir de plataforma de comunicação entre as escolas e as famílias. Assim, para a recolha de dados recorremos às técnicas de inquérito, observação e análise documental. Os respetivos instrumentos utilizados para cada técnica foram questionários, diário da investigadora, e-portefólios reflexivos e registos de interação na comunidade online. Os dados qualitativos e quantitativos foram analisados através da técnica de análise de conteúdo e análise estatística descritiva, respetivamente. Os resultados apontam que a integração das TIC e o incentivo ao envolvimento familiar contribuem positivamente para a promoção da EDS nos primeiros anos de escolaridade. Contudo, considerando o contexto em estudo onde as escolas atendem muitas famílias provenientes de meios socioeconómicos menos favorecidos, é preciso repensar a integração das TIC, para que estas não se configurem como mais uma barreira para o envolvimento familiar. Assim, trabalhar a EDS/CTS para além dos muros da escola, envolvendo as famílias dos alunos e colocando as TIC como uma ponte de comunicação é apresentado nesta investigação como o principal contributo para a consecução da EDS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A literatura da especialidade indica que os estudantes do Ensino Superior (ES) demonstram falta de competências de pesquisa, seleção e tratamento de informação científica com recurso às Tecnologias da Informação e Comunicação (TIC), nomeadamente as ferramentas da Web 2.0. A maioria dos estudos sobre esta temática envolve estudantes de 1.º Ciclo do Ensino Superior, sendo poucos os que se baseiam em referenciais de avaliação destas competências. Visando obter subsídios práticos e teóricos sobre a avaliação dessas competências, ter conhecimento das competências nesta área que os estudantes do ES, em nível de pós-graduação, possuem, e das suas necessidades de formação neste domínio, desenvolveu-se um estudo que foi desenvolvido em três fases. Na primeira fase após a identificação do problema a ser estudado, a falta de competências relacionadas com a Literacia de Informação (LI) de estudantes de pós-graduação, foi realizada a revisão da literatura para a determinação dos conceitos basilares e a sustentação teórica das fases subsequentes, que prendem-se com as competências relacionadas com a LI e como estas têm sido avaliadas. A segunda fase ocupou-se da avaliação de estudantes dos 2.º e 3.º Ciclos do Departamento de Educação da Universidade de Aveiro (UA). Com base na revisão da literatura e em colaboração com os bibliotecários da UA foi definido o referencial de avaliação das competências que definem as dimensões de pesquisa, seleção e tratamento de informação científica, com recurso às TIC. A confiabilidade deste referencial (primeira questão de investigação) foi estabelecida a partir dos contributos de docentes/bibliotecários de Instituições de Ensino Superior (IES), de Portugal e do Brasil. Optou-se pela técnica de estatística descritiva e análise de conteúdo para o estudo das informações destes profissionais. Deste modo, esta investigação permitiu a construção de um referencial de avaliação das competências relacionadas com a LI, com recurso às TIC. O referencial é um fundamento para a construção de instrumentos de avaliação em razão de evidenciar as competências que os estudantes do ES devem possuir de pesquisa, seleção e tratamento de informação científica, com recurso às TIC. Assim, foi permitido, com base no referencial de avaliação e no instrumento de recolha de dados utilizado com os profissionais de IES, desenvolver um questionário que foi aplicado aos estudantes de pós-graduação do Departamento de Educação da UA. Pelas respostas, obteve-se o conhecimento da perceção que possuem a respeito das suas competências de pesquisa, seleção e tratamento de informação científica, com recurso às TIC, e das suas necessidades de formação neste domínio (segunda e terceira questões de avaliação). Para esta análise optou-se pela técnica de estatística descritiva. A terceira fase ocupou-se da escrita da tese, que foi desenvolvida ao longo de toda a investigação, sendo mais intensa nos últimos seis meses. Os resultados da avaliação indicam não só que a maior parte dos estudantes aponta saber utilizar ferramentas digitais mas também têm a perceção de possuir competências relacionadas com a LI, com recurso às TIC, a nível elevado e muito elevado. As repostas da avaliação foram confrontadas com a literatura consultada. De modo igual, indicam que os estudantes do ES superestimam suas competências nesta área, embora não apresentem ações eficazes que demonstrem dominar as competências que supõem ter, sendo um indicativo da necessidade de formação destes estudantes. Recomenda-se que a academia leve em conta o confronto diário com estas tecnologias, que permeiam o modo de aprendizagem de estudantes. Os intervenientes do ambiente académico devem trabalhar em colaboração contínua, para que a partir de ações bem planejadas se possam colmatar as lacunas apresentadas. Devem-se atender as necessidades de formação de estudantes de pós-graduação identificadas por meio de avaliações, com base num referencial. É decursiva, para trabalhos futuros, a necessidade de analisar a confiabilidade do questionário que foi aplicado aos estudantes dos 2.º e 3.º Ciclos do Departamento de Educação da UA e os resultados da sua aplicação, fazendo-o evoluir de acordo com o feedback da sua utilização e a evolução das TIC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The increased capabilities (e.g., processing, storage) of portable devices along with the constant need of users to retrieve and send information have introduced a new form of communication. Users can seamlessly exchange data by means of opportunistic contacts among them and this is what characterizes the opportunistic networks (OppNets). OppNets allow users to communicate even when an end-to-end path may not exist between them. Since 2007, there has been a trend to improve the exchange of data by considering social similarity metrics. Social relationships, shared interests, and popularity are examples of such metrics that have been employed successfully: as users interact based on relationships and interests, this information can be used to decide on the best next forwarders of information. This Thesis work combines the features of today's devices found in the regular urban environment with the current social-awareness trend in the context of opportunistic routing. To achieve this goal, this work was divided into di erent tasks that map to a set of speci c objectives, leading to the following contributions: i) an up-to-date opportunistic routing taxonomy; ii) a universal evaluation framework that aids in devising and testing new routing proposals; iii) three social-aware utility functions that consider the dynamic user behavior and can be easily incorporated to other routing proposals; iv) two opportunistic routing proposals based on the users' daily routines and on the content traversing the network and interest of users in such content; and v) a structure analysis of the social-based network formed based on the approaches devised in this work.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Over the years, the increased search and exchange of information lead to an increase of traffic intensity in todays optical communication networks. Coherent communications, using the amplitude and phase of the signal, reappears as one of the transmission techniques to increase the spectral efficiency and throughput of optical channels. In this context, this work present a study on format conversion of modulated signals using MZI-SOAs, based exclusively on all- optical techniques through wavelength conversion. This approach, when applied in interconnection nodes between optical networks with different bit rates and modulation formats, allow a better efficiency and scalability of the network. We start with an experimental characterization of the static and dynamic properties of the MZI-SOA. Then, we propose a semi-analytical model to describe the evolution of phase and amplitude at the output of the MZI-SOA. The model’s coefficients are obtained using a multi-objective genetic algorithm. We validate the model experimentally, by exploring the dependency of the optical signal with the operational parameters of the MZI-SOA. We also propose an all-optical technique for the conversion of amplitude modulation signals to a continuous phase modulation format. Finally, we study the potential of MZI-SOAs for the conversion of amplitude signals to QPSK and QAM signals. We show the dependency of the conversion process with the operational parameters deviation from the optimal values. The technique is experimentally validated for QPSK modulation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The rapid evolution and proliferation of a world-wide computerized network, the Internet, resulted in an overwhelming and constantly growing amount of publicly available data and information, a fact that was also verified in biomedicine. However, the lack of structure of textual data inhibits its direct processing by computational solutions. Information extraction is the task of text mining that intends to automatically collect information from unstructured text data sources. The goal of the work described in this thesis was to build innovative solutions for biomedical information extraction from scientific literature, through the development of simple software artifacts for developers and biocurators, delivering more accurate, usable and faster results. We started by tackling named entity recognition - a crucial initial task - with the development of Gimli, a machine-learning-based solution that follows an incremental approach to optimize extracted linguistic characteristics for each concept type. Afterwards, Totum was built to harmonize concept names provided by heterogeneous systems, delivering a robust solution with improved performance results. Such approach takes advantage of heterogenous corpora to deliver cross-corpus harmonization that is not constrained to specific characteristics. Since previous solutions do not provide links to knowledge bases, Neji was built to streamline the development of complex and custom solutions for biomedical concept name recognition and normalization. This was achieved through a modular and flexible framework focused on speed and performance, integrating a large amount of processing modules optimized for the biomedical domain. To offer on-demand heterogenous biomedical concept identification, we developed BeCAS, a web application, service and widget. We also tackled relation mining by developing TrigNER, a machine-learning-based solution for biomedical event trigger recognition, which applies an automatic algorithm to obtain the best linguistic features and model parameters for each event type. Finally, in order to assist biocurators, Egas was developed to support rapid, interactive and real-time collaborative curation of biomedical documents, through manual and automatic in-line annotation of concepts and relations. Overall, the research work presented in this thesis contributed to a more accurate update of current biomedical knowledge bases, towards improved hypothesis generation and knowledge discovery.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The main objective of this work was to monitor a set of physical-chemical properties of heavy oil procedural streams through nuclear magnetic resonance spectroscopy, in order to propose an analysis procedure and online data processing for process control. Different statistical methods which allow to relate the results obtained by nuclear magnetic resonance spectroscopy with the results obtained by the conventional standard methods during the characterization of the different streams, have been implemented in order to develop models for predicting these same properties. The real-time knowledge of these physical-chemical properties of petroleum fractions is very important for enhancing refinery operations, ensuring technically, economically and environmentally proper refinery operations. The first part of this work involved the determination of many physical-chemical properties, at Matosinhos refinery, by following some standard methods important to evaluate and characterize light vacuum gas oil, heavy vacuum gas oil and fuel oil fractions. Kinematic viscosity, density, sulfur content, flash point, carbon residue, P-value and atmospheric and vacuum distillations were the properties analysed. Besides the analysis by using the standard methods, the same samples were analysed by nuclear magnetic resonance spectroscopy. The second part of this work was related to the application of multivariate statistical methods, which correlate the physical-chemical properties with the quantitative information acquired by nuclear magnetic resonance spectroscopy. Several methods were applied, including principal component analysis, principal component regression, partial least squares and artificial neural networks. Principal component analysis was used to reduce the number of predictive variables and to transform them into new variables, the principal components. These principal components were used as inputs of the principal component regression and artificial neural networks models. For the partial least squares model, the original data was used as input. Taking into account the performance of the develop models, by analysing selected statistical performance indexes, it was possible to conclude that principal component regression lead to worse performances. When applying the partial least squares and artificial neural networks models better results were achieved. However, it was with the artificial neural networks model that better predictions were obtained for almost of the properties analysed. With reference to the results obtained, it was possible to conclude that nuclear magnetic resonance spectroscopy combined with multivariate statistical methods can be used to predict physical-chemical properties of petroleum fractions. It has been shown that this technique can be considered a potential alternative to the conventional standard methods having obtained very promising results.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudar os mecanismos subjacentes à produção de fala é uma tarefa complexa e exigente, requerendo a obtenção de dados mediante a utilização de variadas técnicas, onde se incluem algumas modalidades imagiológicas. De entre estas, a Ressonância Magnética (RM) tem ganho algum destaque, nos últimos anos, posicionando-se como uma das mais promissoras no domínio da produção de fala. Um importante contributo deste trabalho prende-se com a otimização e implementação de protocolos (RM) e proposta de estratégias de processamento de imagem ajustados aos requisitos da produção de fala, em geral, e às especificidades dos diferentes sons. Para além disso, motivados pela escassez de dados para o Português Europeu (PE), constitui-se como objetivo a obtenção de dados articulatórios que permitam complementar informação já existente e clarificar algumas questões relativas à produção dos sons do PE (nomeadamente, consoantes laterais e vogais nasais). Assim, para as consoantes laterais foram obtidas imagens RM (2D e 3D), através de produções sustidas, com recurso a uma sequência Eco de Gradiente (EG) rápida (3D VIBE), no plano sagital, englobando todo o trato vocal. O corpus, adquirido por sete falantes, contemplou diferentes posições silábicas e contextos vocálicos. Para as vogais nasais, foram adquiridas, em três falantes, imagens em tempo real com uma sequência EG - Spoiled (TurboFLASH), nos planos sagital e coronal, obtendo-se uma resolução temporal de 72 ms (14 frames/s). Foi efetuada aquisição sincronizada das imagens com o sinal acústico mediante utilização de um microfone ótico. Para o processamento e análise de imagem foram utilizados vários algoritmos semiautomáticos. O tratamento e análise dos dados permitiu efetuar uma descrição articulatória das consoantes laterais, ancorada em dados qualitativos (e.g., visualizações 3D, comparação de contornos) e quantitativos que incluem áreas, funções de área do trato vocal, extensão e área das passagens laterais, avaliação de efeitos contextuais e posicionais, etc. No que respeita à velarização da lateral alveolar /l/, os resultados apontam para um /l/ velarizado independentemente da sua posição silábica. Relativamente ao /L/, em relação ao qual a informação disponível era escassa, foi possível verificar que a sua articulação é bastante mais anteriorizada do que tradicionalmente descrito e também mais extensa do que a da lateral alveolar. A resolução temporal de 72 ms conseguida com as aquisições de RM em tempo real, revelou-se adequada para o estudo das características dinâmicas das vogais nasais, nomeadamente, aspetos como a duração do gesto velar, gesto oral, coordenação entre gestos, etc. complementando e corroborando resultados, já existentes para o PE, obtidos com recurso a outras técnicas instrumentais. Para além disso, foram obtidos novos dados de produção relevantes para melhor compreensão da nasalidade (variação área nasal/oral no tempo, proporção nasal/oral). Neste estudo, fica patente a versatilidade e potencial da RM para o estudo da produção de fala, com contributos claros e importantes para um melhor conhecimento da articulação do Português, para a evolução de modelos de síntese de voz, de base articulatória, e para aplicação futura em áreas mais clínicas (e.g., perturbações da fala).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Tese é constituída por três estudos distintos mas ligados pela temática do custo do financiamento bancário e da qualidade da informação financeira, em empresas sem valores cotados em bolsa. No primeiro estudo analisa-se a relação entre o custo do financiamento bancário e a qualidade da informação financeira nas empresas portuguesas. A qualidade da informação financeira é entendida como sinónimo de qualidade dos resultados e é medida através do valor absoluto dos accruals anormais. Os resultados obtidos demonstram a existência de uma relação negativa entre o custo do financiamento bancário e a qualidade da informação financeira nas empresas portuguesas sem valores cotados em bolsa. No segundo estudo alarga-se a análise anterior a empresas sem valores cotados em bolsa do Reino Unido, Alemanha, França e Espanha, realizandose também uma comparação entre esses países e Portugal. A evidência empírica deste estudo permite concluir que existe uma relação negativa entre o custo do financiamento bancário e a qualidade da informação financeira em todos os países, com exceção do Reino Unido. Este país apresenta-se como um caso particular entre os países analisados, onde a qualidade da informação financeira parece apenas influenciar o custo de determinados tipos de empréstimos. No terceiro estudo analisa-se o efeito que a deterioração da qualidade da informação financeira, consubstanciada na apresentação de resultados negativos, tem no custo do financiamento bancário das empresas portuguesas. A evidência obtida demonstra que as empresas que verificam tal deterioração suportam um aumento do custo do financiamento bancário.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A domótica é uma área com grande interesse e margem de exploração, que pretende alcançar a gestão automática e autónoma de recursos habitacionais, proporcionando um maior conforto aos utilizadores. Para além disso, cada vez mais se procuram incluir benefícios económicos e ambientais neste conceito, por forma a garantir um futuro sustentável. O aquecimento de água (por meios elétricos) é um dos fatores que mais contribui para o consumo de energia total de uma residência. Neste enquadramento surge o tema “algoritmos inteligentes de baixa complexidade”, com origem numa parceria entre o Departamento de Eletrónica, Telecomunicações e Informática (DETI) da Universidade de Aveiro e a Bosch Termotecnologia SA, que visa o desenvolvimento de algoritmos ditos “inteligentes”, isto é, com alguma capacidade de aprendizagem e funcionamento autónomo. Os algoritmos devem ser adaptados a unidades de processamento de 8 bits para equipar pequenos aparelhos domésticos, mais propriamente tanques de aquecimento elétrico de água. Uma porção do desafio está, por isso, relacionada com as restrições computacionais de microcontroladores de 8 bits. No caso específico deste trabalho, foi determinada a existência de sensores de temperatura da água no tanque como a única fonte de informação externa aos algoritmos, juntamente com parâmetros pré-definidos pelo utilizador que estabelecem os limiares de temperatura máxima e mínima da água. Partindo deste princípio, os algoritmos desenvolvidos baseiam-se no perfil de consumo de água quente, observado ao longo de cada semana, para tentar prever futuras tiragens de água e, consequentemente, agir de forma adequada, adiantando ou adiando o aquecimento da água do tanque. O objetivo é alcançar uma gestão vantajosa entre a economia de energia e o conforto do utilizador (água quente), isto sem que exista necessidade de intervenção direta por parte do utilizador final. A solução prevista inclui também o desenvolvimento de um simulador que permite observar, avaliar e comparar o desempenho dos algoritmos desenvolvidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho apresentado tem por objetivo contribuir para a valorização da borracha proveniente de pneus em fim de vida, assente em princípios de sustentabilidade ambiental. A abordagem adotada para a concretização deste objetivo consiste na incorporação de borracha de pneus em formulações de base termoplástica e elastomérica (TPE), adequadas ao processo de moldação por injeção. São desenvolvidos estudos sobre a morfologia, propriedades mecânicas, térmicas e reológicas das ligas poliméricas à base de granulado de borracha de pneu (GTR). A falta de adesão entre o GTR e a matriz polimérica leva à degradação das propriedades mecânicas dos materiais obtidos. A estratégia explorada passa pela utilização de um elastómero para promover o encapsulamento do GTR e, desta forma, procurar obter ligas com propriedades mecânicas características de um TPE. São analisadas ligas ternárias (TPEGTR) compostas por polipropileno (PP) de elevada fluidez, GTR e elastómero virgem. O efeito da presença de diferentes elastómeros nas ligas é analisado neste trabalho: um elastómero de etilenopropileno- dieno (EPDM), e um novo elastómero de etileno-propileno (EPR) obtido por catálise metalocénica. O estudo da morfologia das ligas obtidas mostra haver interação entre os materiais, sendo possível inferir a viabilidade da estratégia adotada para promover a adesão do GTR. A incorporação de elastómero promove o aumento da resistência ao impacto e da extensão na rotura nas ligas, o que é atribuído, fundamentalmente, ao encapsulamento do GTR e ao aumento da tenacidade da matriz termoplástica. Com o objetivo de avaliar a influência da estrutura cristalina das ligas TPEGTR no seu comportamento mecânico, procede-se à análise do processo de cristalização sob condições isotérmicas e não isotérmicas. Neste estudo, é avaliado o efeito da presença dos materiais que constituem a fase elastomérica na cinética de cristalização. Para cada uma das ligas desenvolvidas, recorre-se ao modelo de Avrami para avaliar o efeito da temperatura no mecanismo de nucleação, na morfologia das estruturas cristalinas e na taxa de cristalização. Recorre-se à reometria capilar para estudar, sob condições estacionárias, o comportamento reológico das ligas TPEGTR. O modelo de Cross-WLF é utilizado para avaliar o comportamento reológico de todos os materiais, obtendo-se resultados similares àqueles obtidos experimentalmente. O comportamento reológico dos polímeros PP, EPR e EPDM é do tipo reofluidificante, tendo o EPR um comportamento reológico similar ao do PP e o EPDM um comportamento reo-fluidificante mais pronunciado. Em todas as ligas analisadas o comportamento reológico revela-se do tipo reo-fluidificante, sendo que a presença de GTR promove o aumento da viscosidade. Os parâmetros obtidos do modelo de Cross-WLF são utilizados para realizar a simulação da etapa de injeção recorrendo a um software comercial. Os resultados obtidos são validados experimentalmente pelo processo de moldação por injeção, evidenciando uma boa adequabilidade da aplicação deste modelo a estas ligas. O trabalho desenvolvido sobre ligas TPEGTR, constitui um contributo para a valorização da borracha proveniente de pneus em fim de vida, assente em princípios de sustentabilidade ambiental.