903 resultados para seleção criteriosa


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The artefact and techno-centricity of the research into the architecture process needs to be counterbalanced by other approaches. An increasing amount of information is collected and used in the process, resulting in challenges related to information and knowledge management, as this research evidences through interviews with practicing architects. However, emerging technologies are expected to resolve many of the traditional challenges, opening up new avenues for research. This research suggests that among them novel techniques addressing how architects interact with project information, especially that indirectly related to the artefacts, and tools which better address the social nature of work, notably communication between participants, become a higher priority. In the fields associated with the Human Computer Interaction generic solutions still frequently prevail, whereas it appears that specific alternative approaches would be particularly in demand for the dynamic and context dependent design process. This research identifies an opportunity for a process-centric and integrative approach for architectural practice and proposes an information management and communication software application, developed for the needs discovered in close collaboration with architects. Departing from the architects’ challenges, an information management software application, Mneme, was designed and developed until a working prototype. It proposes the use of visualizations as an interface to provide an overview of the process, facilitate project information retrieval and access, and visualize relationships between the pieces of information. Challenges with communication about visual content, such as images and 3D files, led to a development of a communication feature allowing discussions attached to any file format and searchable from a database. Based on the architects testing the prototype and literature recognizing the subjective side of usability, this thesis argues that visualizations, even 3D visualizations, present potential as an interface for information management in the architecture process. The architects confirmed that Mneme allowed them to have a better project overview, to easier locate heterogeneous content, and provided context for the project information. Communication feature in Mneme was seen to offer a lot of potential in design projects where diverse file formats are typically used. Through empirical understanding of the challenges in the architecture process, and through testing the resulting software proposal, this thesis suggests promising directions for future research into the architecture and design process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante o último século, as populações de cervídeos têm aumentado substancialmente um pouco por toda a Europa. O veado Cervus elaphus não foi exceção, apresentando atualmente uma ampla distribuição geográfica. Após a quase extinção de todas as populações selvagens desta espécie em Portugal, o número de efetivos de veado e a área de distribuição da espécie têm aumentado significativamente nas últimas décadas. Esta proliferação deveu-se fundamentalmente aos processos de reintrodução implementados em algumas zonas do país, como foi o caso da Serra da Lousã. Dez anos após a reintrodução, a expansão geográfica e demográfica é já uma realidade e a espécie assume um papel relevante tanto do ponto de vista cinegético como turístico. Com o aumento das populações de ungulados, surge a necessidade de aumentar o conhecimento existente sobre estas espécies, particularmente ao nível das estimativas populacionais, do uso e seleção de habitat, do comportamento e da fisiologia das populações. Neste sentido, um dos objetivos foi comparar quatro métodos de contagem de excrementos em termos de estimativa populacional, aplicabilidade e eficiência. Face aos resultados obtidos, o método de transectos lineares com distance sampling revelou-se o mais eficiente, providenciando uma boa precisão num menor tempo. Relativamente ao uso e seleção do habitat, recorrendo a transectos de contagem de excrementos e a observações diretas, verificou-se que o veado seleciona positivamente habitats que lhe proporcionam simultaneamente alimento e refúgio, como é o caso das áreas de ecótono. A preferência por áreas de ecótono evidencia um comportamento adaptativo de maximização de energia, no qual os animais optam por procurar refúgio na proximidade das áreas de alimentação de forma a minimizarem os dispêndios energéticos. Em termos de dinâmica populacional, verificou-se uma relação entre a densidade de veado e o tamanho dos seus grupos, bem como o efeito nos mesmos do coberto vegetal. Contudo, dado o seu alto dimorfismo sexual em termos de tamanho corporal, as preferências de habitat podem também ser em parte responsáveis pela segregação sexual fora da época de reprodução. Face aos resultados obtidos através do método de observação direta de animais, a segregação sexual surge como consequência da interação entre fatores sociais e de habitat, que resultam de diferentes estratégias reprodutivas por parte de ambos os sexos. As diferentes estratégias reprodutivas são também notórias em termos de condição física e imunológica, com os machos a aumentarem a sua condição durante as épocas de primavera e verão de forma a melhorarem a sua performance durante o cio, e as fêmeas a viverem grande parte do ano no limiar da condição física devido ao seu investimento na sobrevivência da sua descendência. Globalmente, o veado apresenta uma boa adaptação à Serra da Lousã e representa um importante recurso natural para esta região. Contudo, para que a proliferação desta população selvagem continue, é necessária a implementação de medidas de gestão adequadas a este ecossistema mediterrâneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, a poluição atmosférica constitui uma das principais causas ambientais de mortalidade. Cerca de 30% da população europeia residente em áreas urbanas encontra-se exposta a níveis de poluição atmosférica superiores aos valores- limite de qualidade do ar legislados para proteção da saúde humana, representando o tráfego rodoviário uma das principais fontes de poluição urbana. Além dos poluentes tradicionais avaliados em áreas urbanas, os poluentes classificados como perigosos para a saúde (Hazard Air Pollutants - HAPs) têm particular relevância devido aos seus conhecidos efeitos tóxicos e cancerígenos. Neste sentido, a avaliação da exposição tornase primordial para a determinação da relação entre a poluição atmosférica urbana e efeitos na saúde. O presente estudo tem como principal objetivo o desenvolvimento e implementação de uma metodologia para avaliação da exposição individual à poluição atmosférica urbana relacionada com o tráfego rodoviário. De modo a atingir este objetivo, foram identificados os parâmetros relevantes para a quantificação de exposição e analisados os atuais e futuros potenciais impactos na saúde associados com a exposição à poluição urbana. Neste âmbito, o modelo ExPOSITION (EXPOSure model to traffIc-relaTed aIr pOllutioN) foi desenvolvido baseado numa abordagem inovadora que envolve a análise da trajetória dos indivíduos recolhidas por telemóveis com tecnologia GPS e processadas através da abordagem de data mining e análise geoespacial. O modelo ExPOSITION considera também uma abordagem probabilística para caracterizar a variabilidade dos parâmetros microambientais e a sua contribuição para exposição individual. Adicionalmente, de forma a atingir os objetivos do estudo foi desenvolvido um novo módulo de cálculo de emissões de HAPs provenientes do transporte rodoviário. Neste estudo, um sistema de modelação, incluindo os modelos de transporteemissões- dispersão-exposição, foi aplicado na área urbana de Leiria para quantificação de exposição individual a PM2.5 e benzeno. Os resultados de modelação foram validados com base em medições obtidas por monitorização pessoal e monitorização biológica verificando-se uma boa concordância entre os resultados do modelo e dados de medições. A metodologia desenvolvida e implementada no âmbito deste trabalho permite analisar e estimar a magnitude, frequência e inter e intra-variabilidade dos níveis de exposição individual, bem como a contribuição de diferentes microambientes, considerando claramente a sequência de eventos de exposição e relação fonte-recetor, que é fundamental para avaliação dos efeitos na saúde e estudos epidemiológicos. O presente trabalho contribui para uma melhor compreensão da exposição individual em áreas urbanas, proporcionando novas perspetivas sobre a exposição individual, essenciais na seleção de estratégias de redução da exposição à poluição atmosférica urbana, e consequentes efeitos na saúde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In recent years, a new paradigm for communication called cooperative communications has been proposed for which initial information theoretic studies have shown the potential for improvements in capacity over traditional multi-hop wireless networks. Extensive research has been done to mitigate the impact of fading in wireless networks, being mostly focused on Multiple-Input Multiple-Output (MIMO) systems. Recently, cooperative relaying techniques have been investigated to increase the performance of wireless systems by using diversity created by different single antenna devices, aiming to reach the same level of performance of MIMO systems with low cost devices. Cooperative communication is a promising method to achieve high spectrum efficiency and improve transmission capacity for wireless networks. Cooperative communications is the general idea of pooling the resources of distributed nodes to improve the overall performance of a wireless network. In cooperative networks the nodes cooperate to help each other. A cooperative node offering help is acting like a middle man or proxy and can convey messages from source to destination. Cooperative communication involves exploiting the broadcast nature of the wireless medium to form virtual antenna arrays out of independent singleantenna network nodes for transmission. This research aims at contributing to the field of cooperative wireless networks. The focus of this research is on the relay-based Medium Access Control (MAC) protocol. Specifically, I provide a framework for cooperative relaying called RelaySpot which comprises on opportunistic relay selection, cooperative relay scheduling and relay switching. RelaySpot-based solutions are expected to minimize signaling exchange, remove estimation of channel conditions, and improve the utilization of spatial diversity, minimizing outage and increasing reliability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study aims to measure the effectiveness of four post-fire emergency techniques for reducing overland flow and soil erosion on the central-Portugal typical forest. The selection and development of these techniques was based on the review of the scientific background, but specially after checking throughout field rainfall simulation experiments which factors were the key for runoff and soil erosion on the specific case of high repellent soils. The forest residue mulch, a new treatment never tested before, was highly effective in reducing runoff and soil erosion in recently burnt eucalypt forest. The logging slash mulch had no obvious effect, but it was attributed to the small amounts of runoff and sediments that the untreated plots produced due to the extensive needle cast following a low severity fire. The hydromulch, a mixture of water, organic fibres, seeds, nutrients and a surfactant used in cutted slopes rehabilitation was also highly successful and was specially indicated for especially sensible areas. The utilization of polyacrylamides, a chemical agent with good performance in agricultural erosion, was not successful in post-fire runoff and soil erosion control, once that did not alter the most important key factor for soil erosion: the ground cover. The development of a new fibre optic turbidity sensor was a successful development on the soil erosion determination methodology, and its patent is being processed in the mean time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The incidence of cardiovascular diseases (CVD) has been increasing according to the European and global statistics. Thus, the development of new analytical devices, such as biosensors for assessing the risk of CVD could become a valuable approach for the improvement of healthcare service. In latest years, the nanotechnology has provided new materials with improved electronic properties which have an important contribution in the transduction mechanism of biosensors. Thus, in this thesis, biosensors based on field effect transistors with single-walled carbon nanotubes (NTFET) were developed for the detection of C-reactive protein (CRP) in clinical samples, that is, blood serum and saliva from a group of control patients and a group of CVD risk patients. CRP is an acute-phase protein, which is commonly known as the best validated biomarker for the assessment of CVD, the single-walled carbon nanotubes (SWCNT) were applied as transduction components, and the immunoreaction (interaction between the CRP antigen and the antibodies specific to CRP) was used as the mechanism of molecular recognition for the label-free detection of CRP. After the microfabrication of field effect transistors (FET), the screening of the most important variables for the dispersion of SWCNT, the assemblage of NTFET, and their application on standard solutions of CRP, it was found that NTFET respond accurately to CRP both in saliva and in serum samples, since similar CRP levels were found with the NTFET and the traditional methodology (ELISA technique). On the other hand, a strong correlation between salivary and serum CRP was found with NTFET, which means that saliva could be used, based on non-invasive sampling, as an alternative fluid to blood serum. It was also shown that NTFET could discriminate control patients from CVD risk patients, allowing the determination of a cut-off value for salivary CRP of 1900 ng L-1, which corresponds to the well established cut-off of 3 mg L-1 for CRP in serum, constituting an important finding for the possible establishment of a new range of CRP levels based on saliva. According to the data provided from the volunteer patients regarding their lipoprotein profile and lifestyle factors, it was concluded that the control and the CVD risk patients could be separated taking into account the various risk factors established in literature as strong contributors for developing a CVD, such as triglycerides, serum CRP, total cholesterol, LDL cholesterol, body mass index, Framingham risk score, hypertension, dyslipidemia, and diabetes mellitus. Thus, this work could provide an additional contribution to the understanding of the association of biomarkers levels in serum and saliva samples, and above all, cost-effective, rapid, label-free, and disposable NTFET were developed, based on a noninvasive sampling, for the assessment of CVD risk, thus constituting a potential point-of-care technology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese propõe uma forma diferente de navegação de robôs em ambientes dinâmicos, onde o robô tira partido do movimento de pedestres, com o objetivo de melhorar as suas capacidades de navegação. A ideia principal é que, ao invés de tratar as pessoas como obstáculos dinâmicos que devem ser evitados, elas devem ser tratadas como agentes especiais com conhecimento avançado em navegação em ambientes dinâmicos. Para se beneficiar do movimento de pedestres, este trabalho propõe que um robô os selecione e siga, de modo que possa mover-se por caminhos ótimos, desviar-se de obstáculos não detetados, melhorar a navegação em ambientes densamente populados e aumentar a sua aceitação por outros humanos. Para atingir estes objetivos, novos métodos são desenvolvidos na área da seleção de líderes, onde duas técnicas são exploradas. A primeira usa métodos de previsão de movimento, enquanto a segunda usa técnicas de aprendizagem por máquina, para avaliar a qualidade de candidatos a líder, onde o treino é feito com exemplos reais. Os métodos de seleção de líder são integrados com algoritmos de planeamento de movimento e experiências são realizadas para validar as técnicas propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

É extensa a bibliografia dedicada a potenciais aplicações de materiais com mudança de fase na regulação térmica e no armazenamento de calor ou de frio. No entanto, a baixa condutividade térmica impõe limitações numa grande diversidade de aplicações com exigências críticas em termos de tempo de resposta curto ou com requisitos de elevada potência em ciclos de carga/descarga de calor latente. Foram desenvolvidos códigos numéricos no sentido de obter soluções precisas para descrever a cinética da transferência de calor com mudança de fase, com base em geometrias representativas, i.e. planar e esférica. Foram igualmente propostas soluções aproximadas, sendo identificados correspondentes critérios de validação em função das propriedades dos materiais de mudança de fase e de outros parâmetros relevantes tais como as escalas de tamanho e de tempo, etc. As referidas soluções permitiram identificar com rigor os fatores determinantes daquelas limitações, quantificar os correspondentes efeitos e estabelecer critérios de qualidade adequados para diferentes tipologias de potenciais aplicações. Os referidos critérios foram sistematizados de acordo com metodologias de seleção propostas por Ashby e co-autores, tendo em vista o melhor desempenho dos materiais em aplicações representativas, designadamente com requisitos ao nível de densidade energética, tempo de resposta, potência de carga/descarga e gama de temperaturas de operação. Nesta sistematização foram incluídos alguns dos compósitos desenvolvidos durante o presente trabalho. A avaliação das limitações acima mencionadas deu origem ao desenvolvimento de materiais compósitos para acumulação de calor ou frio, com acentuada melhoria de resposta térmica, mediante incorporação de uma fase com condutividade térmica muito superior à da matriz. Para este efeito, foram desenvolvidos modelos para otimizar a distribuição espacial da fase condutora, de modo a superar os limites de percolação previstos por modelos clássicos de condução em compósitos com distribuição aleatória, visando melhorias de desempenho térmico com reduzidas frações de fase condutora e garantindo que a densidade energética não é significativamente afetada. Os modelos elaborados correspondem a compósitos de tipo core-shell, baseados em microestruturas celulares da fase de elevada condutividade térmica, impregnadas com o material de mudança de fase propriamente dito. Além de visarem a minimização da fração de fase condutora e correspondentes custos, os modelos de compósitos propostos tiveram em conta a adequação a métodos de processamento versáteis, reprodutíveis, preferencialmente com base na emulsificação de líquidos orgânicos em suspensões aquosas ou outros processos de reduzidas complexidade e com base em materiais de baixo custo (material de mudança de fase e fase condutora). O design da distribuição microestrutural também considerou a possibilidade de orientação preferencial de fases condutoras com elevada anisotropia (p.e. grafite), mediante auto-organização. Outros estágios do projeto foram subordinados a esses objetivos de desenvolvimento de compósitos com resposta térmica otimizada, em conformidade com previsões dos modelos de compósitos de tipo core-shell, acima mencionadas. Neste enquadramento, foram preparados 3 tipos de compósitos com organização celular da fase condutora, com as seguintes características e metodologias: i) compósitos celulares parafina-grafite para acumulação de calor, preparados in-situ por emulsificação de uma suspensão de grafite em parafina fundida; ii) compósitos celulares parafina-Al2O3 para acumulação de calor, preparados por impregnação de parafina em esqueleto cerâmico celular de Al2O3; iii) compósitos celulares para acumulação de frio, obtidos mediante impregnação de matrizes celulares de grafite com solução de colagénio, após preparação prévia das matrizes de grafite celular. Os compósitos com esqueleto cerâmico (ii) requereram o desenvolvimento prévio de um método para o seu processamento, baseado na emulsificação de suspensões de Al2O3 em parafina fundida, com adequados aditivos dispersantes, tensioactivos e consolidantes do esqueleto cerâmico, tornando-o auto-suportável durante as fases posteriores de eliminação da parafina, até à queima a alta temperatura, originando cerâmicos celulares com adequada resistência mecânica. Os compósitos desenvolvidos apresentam melhorias significativos de condutividade térmica, atingindo ganhos superiores a 1 ordem de grandeza com frações de fase condutora inferior a 10 % vol. (4 W m-1 K-1), em virtude da organização core-shell e com o contributo adicional da anisotropia da grafite, mediante orientação preferencial. Foram ainda preparados compósitos de armazenamento de frio (iii), com orientação aleatória da fase condutora, obtidos mediante gelificação de suspensões de partículas de grafite em solução aquosa de colagénio. Apesar da estabilidade microestrutural e de forma, conferida por gelificação, estes compósitos confirmaram a esperada limitação dos compósitos com distribuição aleatória, em confronto com os ganhos alcançados com a organização de tipo core-shell.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A literatura da especialidade indica que os estudantes do Ensino Superior (ES) demonstram falta de competências de pesquisa, seleção e tratamento de informação científica com recurso às Tecnologias da Informação e Comunicação (TIC), nomeadamente as ferramentas da Web 2.0. A maioria dos estudos sobre esta temática envolve estudantes de 1.º Ciclo do Ensino Superior, sendo poucos os que se baseiam em referenciais de avaliação destas competências. Visando obter subsídios práticos e teóricos sobre a avaliação dessas competências, ter conhecimento das competências nesta área que os estudantes do ES, em nível de pós-graduação, possuem, e das suas necessidades de formação neste domínio, desenvolveu-se um estudo que foi desenvolvido em três fases. Na primeira fase após a identificação do problema a ser estudado, a falta de competências relacionadas com a Literacia de Informação (LI) de estudantes de pós-graduação, foi realizada a revisão da literatura para a determinação dos conceitos basilares e a sustentação teórica das fases subsequentes, que prendem-se com as competências relacionadas com a LI e como estas têm sido avaliadas. A segunda fase ocupou-se da avaliação de estudantes dos 2.º e 3.º Ciclos do Departamento de Educação da Universidade de Aveiro (UA). Com base na revisão da literatura e em colaboração com os bibliotecários da UA foi definido o referencial de avaliação das competências que definem as dimensões de pesquisa, seleção e tratamento de informação científica, com recurso às TIC. A confiabilidade deste referencial (primeira questão de investigação) foi estabelecida a partir dos contributos de docentes/bibliotecários de Instituições de Ensino Superior (IES), de Portugal e do Brasil. Optou-se pela técnica de estatística descritiva e análise de conteúdo para o estudo das informações destes profissionais. Deste modo, esta investigação permitiu a construção de um referencial de avaliação das competências relacionadas com a LI, com recurso às TIC. O referencial é um fundamento para a construção de instrumentos de avaliação em razão de evidenciar as competências que os estudantes do ES devem possuir de pesquisa, seleção e tratamento de informação científica, com recurso às TIC. Assim, foi permitido, com base no referencial de avaliação e no instrumento de recolha de dados utilizado com os profissionais de IES, desenvolver um questionário que foi aplicado aos estudantes de pós-graduação do Departamento de Educação da UA. Pelas respostas, obteve-se o conhecimento da perceção que possuem a respeito das suas competências de pesquisa, seleção e tratamento de informação científica, com recurso às TIC, e das suas necessidades de formação neste domínio (segunda e terceira questões de avaliação). Para esta análise optou-se pela técnica de estatística descritiva. A terceira fase ocupou-se da escrita da tese, que foi desenvolvida ao longo de toda a investigação, sendo mais intensa nos últimos seis meses. Os resultados da avaliação indicam não só que a maior parte dos estudantes aponta saber utilizar ferramentas digitais mas também têm a perceção de possuir competências relacionadas com a LI, com recurso às TIC, a nível elevado e muito elevado. As repostas da avaliação foram confrontadas com a literatura consultada. De modo igual, indicam que os estudantes do ES superestimam suas competências nesta área, embora não apresentem ações eficazes que demonstrem dominar as competências que supõem ter, sendo um indicativo da necessidade de formação destes estudantes. Recomenda-se que a academia leve em conta o confronto diário com estas tecnologias, que permeiam o modo de aprendizagem de estudantes. Os intervenientes do ambiente académico devem trabalhar em colaboração contínua, para que a partir de ações bem planejadas se possam colmatar as lacunas apresentadas. Devem-se atender as necessidades de formação de estudantes de pós-graduação identificadas por meio de avaliações, com base num referencial. É decursiva, para trabalhos futuros, a necessidade de analisar a confiabilidade do questionário que foi aplicado aos estudantes dos 2.º e 3.º Ciclos do Departamento de Educação da UA e os resultados da sua aplicação, fazendo-o evoluir de acordo com o feedback da sua utilização e a evolução das TIC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Branch-and-cut” algorithm is one of the most efficient exact approaches to solve mixed integer programs. This algorithm combines the advantages of a pure branch-and-bound approach and cutting planes scheme. Branch-and-cut algorithm computes the linear programming relaxation of the problem at each node of the search tree which is improved by the use of cuts, i.e. by the inclusion of valid inequalities. It should be taken into account that selection of strongest cuts is crucial for their effective use in branch-and-cut algorithm. In this thesis, we focus on the derivation and use of cutting planes to solve general mixed integer problems, and in particular inventory problems combined with other problems such as distribution, supplier selection, vehicle routing, etc. In order to achieve this goal, we first consider substructures (relaxations) of such problems which are obtained by the coherent loss of information. The polyhedral structure of those simpler mixed integer sets is studied to derive strong valid inequalities. Finally those strong inequalities are included in the cutting plane algorithms to solve the general mixed integer problems. We study three mixed integer sets in this dissertation. The first two mixed integer sets arise as a subproblem of the lot-sizing with supplier selection, the network design and the vendor-managed inventory routing problems. These sets are variants of the well-known single node fixed-charge network set where a binary or integer variable is associated with the node. The third set occurs as a subproblem of mixed integer sets where incompatibility between binary variables is considered. We generate families of valid inequalities for those sets, identify classes of facet-defining inequalities, and discuss the separation problems associated with the inequalities. Then cutting plane frameworks are implemented to solve some mixed integer programs. Preliminary computational experiments are presented in this direction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelação e análise de séries temporais de valores inteiros têm sido alvo de grande investigação e desenvolvimento nos últimos anos, com aplicações várias em diversas áreas da ciência. Nesta tese a atenção centrar-se-á no estudo na classe de modelos basedos no operador thinning binomial. Tendo como base o operador thinning binomial, esta tese focou-se na construção e estudo de modelos SETINAR(2; p(1); p(2)) e PSETINAR(2; 1; 1)T , modelos autorregressivos de valores inteiros com limiares autoinduzidos e dois regimes, admitindo que as inovações formam uma sucessão de variáveis independentes com distribuição de Poisson. Relativamente ao primeiro modelo analisado, o modelo SETINAR(2; p(1); p(2)), além do estudo das suas propriedades probabilísticas e de métodos, clássicos e bayesianos, para estimar os parâmetros, analisou-se a questão da seleção das ordens, no caso de elas serem desconhecidas. Com este objetivo consideraram-se algoritmos de Monte Carlo via cadeias de Markov, em particular o algoritmo Reversible Jump, abordando-se também o problema da seleção de modelos, usando metodologias clássica e bayesiana. Complementou-se a análise através de um estudo de simulação e uma aplicação a dois conjuntos de dados reais. O modelo PSETINAR(2; 1; 1)T proposto, é também um modelo autorregressivo com limiares autoinduzidos e dois regimes, de ordem unitária em cada um deles, mas apresentando uma estrutura periódica. Estudaram-se as suas propriedades probabilísticas, analisaram-se os problemas de inferência e predição de futuras observações e realizaram-se estudos de simulação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente dinamização de blogues no contexto escolar português, resultante das mais-valias e dos respetivos incentivos à utilização de ferramentas tecnológicas da Web 2.0, assumiu uma prática frequente a partir dos inícios do século XXI. Uma rápida pesquisa na Internet permite-nos verificar um número considerável de blogues usados na lecionação do Português, bem como uma diversidade no que diz respeito a propósitos e finalidades de utilização. Com a nossa investigação pretendemos estudar de que forma se processa o ensino-aprendizagem da Língua Portuguesa/Português em alunos do 3.º Ciclo do Ensino Básico (CEB), através do recurso a esta ferramenta, colocando o foco de análise no domínio da escrita. Procuramos percecionar as motivações e as dinâmicas privilegiadas e recorrentes na utilização pedagógica dos blogues no âmbito do ensino-aprendizagem da escrita a alunos do 3.º CEB. O nosso percurso de investigação foi delineado de acordo com duas fases de atuação. Numa primeira, fizemos um levantamento de “blogues estratégia” associados à prática docente da disciplina de Português no 3.º CEB, optando, nesta etapa, por uma análise quantitativa. A pesquisa e o contacto mais aprofundado que fomos fazendo conduziram-nos à definição de critérios de seleção e à construção e reformulação de uma grelha de identificação e caracterização geral dos blogues, que nos orientou nesta recolha. Elaborámos e aplicámos também um questionário a professores dinamizadores de blogues no âmbito do nosso trabalho que permitiu o alargamento do nosso corpus documental, bem como definir outros elementos para posterior análise. Tendo em conta a diversidade de objetivos e finalidades, muitas vezes referidos nos próprios blogues, optámos por definir três categorias, de forma a favorecer a recolha e a amostra no âmbito no nosso trabalho, designadamente “Blogue Cartolina", “Blogue Turma” e “Blogue Projeto”. Numa segunda fase, e depois da seleção dos posts no âmbito do ensinoaprendizagem da escrita que fazem parte da nossa base documental, partimos para uma análise mais aprofundada do conteúdo publicado. Para tal, elaborámos uma segunda grelha com indicadores para recolha de dados, tendo definido quatro práticas de escrita (Divulgação, Solicitação, Reformulação e Partilha), e uma terceira grelha, com tipos de interação, para uma análise da participação através de comentários que se desencadeia a partir das publicações. No fundo, o nosso propósito consistiu em aferir a organização e as dinâmicas de funcionamento dos “blogues estratégia” ligados ao ensino-aprendizagem da escrita do 3.º Ciclo do Ensino Básico e, neste sentido, percecionarmos de que forma estas funcionalidades tecnológicas poderão contribuir para o desenvolvimento da escrita junto dos alunos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partindo da importância de que se reveste a escrita para construção e explicitação do conhecimento, e da necessidade de os professores fazerem uma mediação da aprendizagem desta vertente da escrita, procurámos analisar e perceber de que modo as práticas de escrita que os professores implementam influenciam a qualidade dos textos que os alunos produzem. No sentido de dar resposta à questão enunciada, definimos um objetivo geral: avaliar se um dispositivo didático, o MDG, construído com base no conhecimento das propriedades dos géneros e dos textos, implementado de forma explícita e intencional pelos professores, pode refletir-se, e a que níveis, na qualidade dos textos que os alunos produzem. O estudo foi realizado no contexto de um programa de formação que envolveu 14 professores dos três ciclos do ensino básico, para o qual definimos três fases distintas: (i) caracterização das práticas de escrita dos professores dos três ciclos do ensino básico antes da planificação do MDG; ii) caracterização das práticas de escrita dos alunos de uma turma do 4.º ano de escolaridade antes da implementação do MDG, e (iii) avaliação das práticas de escrita dos alunos depois de implementado o MDG pelos professores. Os dados foram recolhidos através da análise qualitativa e quantitativa das planificações dos professores e dos textos dos alunos. Os resultados evidenciam que nas fases prévias à implementação do MDG há a ausência de critérios específicos de avaliação dos textos e a utilização de instruções de escrita demasiado vagas, pouco orientadoras da produção do texto do género por parte dos alunos. Por sua vez, estes revelaram dificuldades quer na seleção de informação, ao nível da escolha dos conteúdos pertinentes, quer na produção do género pedido, já que o texto final configura uma colagem de partes de textos lidos, sem qualquer configuração adaptada ao género. Já na fase 3, e depois de planificado e implementado o MDG, os alunos demonstraram um melhor desempenho na seleção de informação e na escrita do texto. No entanto, foi também possível identificar alguns aspetos em que não apresentaram mudança ou que essa mudança não foi significativa.