36 resultados para seleção
Resumo:
This study aims to measure the effectiveness of four post-fire emergency techniques for reducing overland flow and soil erosion on the central-Portugal typical forest. The selection and development of these techniques was based on the review of the scientific background, but specially after checking throughout field rainfall simulation experiments which factors were the key for runoff and soil erosion on the specific case of high repellent soils. The forest residue mulch, a new treatment never tested before, was highly effective in reducing runoff and soil erosion in recently burnt eucalypt forest. The logging slash mulch had no obvious effect, but it was attributed to the small amounts of runoff and sediments that the untreated plots produced due to the extensive needle cast following a low severity fire. The hydromulch, a mixture of water, organic fibres, seeds, nutrients and a surfactant used in cutted slopes rehabilitation was also highly successful and was specially indicated for especially sensible areas. The utilization of polyacrylamides, a chemical agent with good performance in agricultural erosion, was not successful in post-fire runoff and soil erosion control, once that did not alter the most important key factor for soil erosion: the ground cover. The development of a new fibre optic turbidity sensor was a successful development on the soil erosion determination methodology, and its patent is being processed in the mean time.
Resumo:
The incidence of cardiovascular diseases (CVD) has been increasing according to the European and global statistics. Thus, the development of new analytical devices, such as biosensors for assessing the risk of CVD could become a valuable approach for the improvement of healthcare service. In latest years, the nanotechnology has provided new materials with improved electronic properties which have an important contribution in the transduction mechanism of biosensors. Thus, in this thesis, biosensors based on field effect transistors with single-walled carbon nanotubes (NTFET) were developed for the detection of C-reactive protein (CRP) in clinical samples, that is, blood serum and saliva from a group of control patients and a group of CVD risk patients. CRP is an acute-phase protein, which is commonly known as the best validated biomarker for the assessment of CVD, the single-walled carbon nanotubes (SWCNT) were applied as transduction components, and the immunoreaction (interaction between the CRP antigen and the antibodies specific to CRP) was used as the mechanism of molecular recognition for the label-free detection of CRP. After the microfabrication of field effect transistors (FET), the screening of the most important variables for the dispersion of SWCNT, the assemblage of NTFET, and their application on standard solutions of CRP, it was found that NTFET respond accurately to CRP both in saliva and in serum samples, since similar CRP levels were found with the NTFET and the traditional methodology (ELISA technique). On the other hand, a strong correlation between salivary and serum CRP was found with NTFET, which means that saliva could be used, based on non-invasive sampling, as an alternative fluid to blood serum. It was also shown that NTFET could discriminate control patients from CVD risk patients, allowing the determination of a cut-off value for salivary CRP of 1900 ng L-1, which corresponds to the well established cut-off of 3 mg L-1 for CRP in serum, constituting an important finding for the possible establishment of a new range of CRP levels based on saliva. According to the data provided from the volunteer patients regarding their lipoprotein profile and lifestyle factors, it was concluded that the control and the CVD risk patients could be separated taking into account the various risk factors established in literature as strong contributors for developing a CVD, such as triglycerides, serum CRP, total cholesterol, LDL cholesterol, body mass index, Framingham risk score, hypertension, dyslipidemia, and diabetes mellitus. Thus, this work could provide an additional contribution to the understanding of the association of biomarkers levels in serum and saliva samples, and above all, cost-effective, rapid, label-free, and disposable NTFET were developed, based on a noninvasive sampling, for the assessment of CVD risk, thus constituting a potential point-of-care technology.
Resumo:
Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.
Resumo:
Esta tese propõe uma forma diferente de navegação de robôs em ambientes dinâmicos, onde o robô tira partido do movimento de pedestres, com o objetivo de melhorar as suas capacidades de navegação. A ideia principal é que, ao invés de tratar as pessoas como obstáculos dinâmicos que devem ser evitados, elas devem ser tratadas como agentes especiais com conhecimento avançado em navegação em ambientes dinâmicos. Para se beneficiar do movimento de pedestres, este trabalho propõe que um robô os selecione e siga, de modo que possa mover-se por caminhos ótimos, desviar-se de obstáculos não detetados, melhorar a navegação em ambientes densamente populados e aumentar a sua aceitação por outros humanos. Para atingir estes objetivos, novos métodos são desenvolvidos na área da seleção de líderes, onde duas técnicas são exploradas. A primeira usa métodos de previsão de movimento, enquanto a segunda usa técnicas de aprendizagem por máquina, para avaliar a qualidade de candidatos a líder, onde o treino é feito com exemplos reais. Os métodos de seleção de líder são integrados com algoritmos de planeamento de movimento e experiências são realizadas para validar as técnicas propostas.
Resumo:
During the last few decades, Metal-Organic Frameworks (MOFs), also known as Coordination Polymers, have attracted worldwide research attentions due to their incremented fascinating architectures and unique properties. These multidimensional materials have been potential applications in distinct areas: gas storage and separation, ion exchange, catalysis, magnetism, in optical sensors, among several others. The MOF research group at the University of Aveiro has prepared MOFs from the combination of phosphonate organic primary building units (PBUs) with, mainly, lanthanides. This thesis documents the last findings in this area involving the synthesis of multidimensional MOFs based on four di- or tripodal phosphonates ligands. The organic PBUs were designed and prepared by selecting and optimizing the best reaction conditions and synthetic routes. The self-assembly between phosphonate PBUs and rare-earths cations led to the formation of several 1D, 2D and 3D families of isotypical MOFs. The preparation of these materials was achieved by using distinct synthetic approaches: hydro(solvo)thermal, microwave- and ultrasound-assisted, one-pot and ionothermal synthesis. The selection of the organic PBUs showed to have an important role in the final architectures: while flexible phosphonate ligands afforded 1D, 2D and dense 3D structures, a large and rigid organic PBU isolated a porous 3D MOF. The crystal structure of these materials was successfully unveiled by powder or single-crystal X-ray diffraction. All multidimensional MOFs were characterized by standard solid-state techniques (FT-IR, electron microscopy (SEM and EDS), solid-state NMR, elemental and thermogravimetric analysis). Some MOF materials exhibited remarkable thermal stability and robustness up to ca. 400 ºC. The intrinsic properties of some MOFs were investigated. Photoluminescence studies revealed that the selected organic PBUs are suitable sensitizers of Tb3+ leading to the isolation of intense green-emitting materials. The suppression of the O−H quenchers by deuteration or dehydration processes improves substantially the photoluminescence of the optically-active Eu3+-based materials. Some MOF materials exhibited high heterogeneous catalytic activity and excellent regioselectivity in the ring-opening reaction of styrene oxide (PhEtO) with methanol (100% conversion of PhEtO at 55 ºC for 30 min). The porous MOF material was employed in gas separation processes. This compound showed the ability to separate propane over propylene. The ionexchanged form of this material (containing K+ cations into its network) exhibited higher affinity for CO2 being capable to separate acetylene over this environment non-friendly gas.
Resumo:
É extensa a bibliografia dedicada a potenciais aplicações de materiais com mudança de fase na regulação térmica e no armazenamento de calor ou de frio. No entanto, a baixa condutividade térmica impõe limitações numa grande diversidade de aplicações com exigências críticas em termos de tempo de resposta curto ou com requisitos de elevada potência em ciclos de carga/descarga de calor latente. Foram desenvolvidos códigos numéricos no sentido de obter soluções precisas para descrever a cinética da transferência de calor com mudança de fase, com base em geometrias representativas, i.e. planar e esférica. Foram igualmente propostas soluções aproximadas, sendo identificados correspondentes critérios de validação em função das propriedades dos materiais de mudança de fase e de outros parâmetros relevantes tais como as escalas de tamanho e de tempo, etc. As referidas soluções permitiram identificar com rigor os fatores determinantes daquelas limitações, quantificar os correspondentes efeitos e estabelecer critérios de qualidade adequados para diferentes tipologias de potenciais aplicações. Os referidos critérios foram sistematizados de acordo com metodologias de seleção propostas por Ashby e co-autores, tendo em vista o melhor desempenho dos materiais em aplicações representativas, designadamente com requisitos ao nível de densidade energética, tempo de resposta, potência de carga/descarga e gama de temperaturas de operação. Nesta sistematização foram incluídos alguns dos compósitos desenvolvidos durante o presente trabalho. A avaliação das limitações acima mencionadas deu origem ao desenvolvimento de materiais compósitos para acumulação de calor ou frio, com acentuada melhoria de resposta térmica, mediante incorporação de uma fase com condutividade térmica muito superior à da matriz. Para este efeito, foram desenvolvidos modelos para otimizar a distribuição espacial da fase condutora, de modo a superar os limites de percolação previstos por modelos clássicos de condução em compósitos com distribuição aleatória, visando melhorias de desempenho térmico com reduzidas frações de fase condutora e garantindo que a densidade energética não é significativamente afetada. Os modelos elaborados correspondem a compósitos de tipo core-shell, baseados em microestruturas celulares da fase de elevada condutividade térmica, impregnadas com o material de mudança de fase propriamente dito. Além de visarem a minimização da fração de fase condutora e correspondentes custos, os modelos de compósitos propostos tiveram em conta a adequação a métodos de processamento versáteis, reprodutíveis, preferencialmente com base na emulsificação de líquidos orgânicos em suspensões aquosas ou outros processos de reduzidas complexidade e com base em materiais de baixo custo (material de mudança de fase e fase condutora). O design da distribuição microestrutural também considerou a possibilidade de orientação preferencial de fases condutoras com elevada anisotropia (p.e. grafite), mediante auto-organização. Outros estágios do projeto foram subordinados a esses objetivos de desenvolvimento de compósitos com resposta térmica otimizada, em conformidade com previsões dos modelos de compósitos de tipo core-shell, acima mencionadas. Neste enquadramento, foram preparados 3 tipos de compósitos com organização celular da fase condutora, com as seguintes características e metodologias: i) compósitos celulares parafina-grafite para acumulação de calor, preparados in-situ por emulsificação de uma suspensão de grafite em parafina fundida; ii) compósitos celulares parafina-Al2O3 para acumulação de calor, preparados por impregnação de parafina em esqueleto cerâmico celular de Al2O3; iii) compósitos celulares para acumulação de frio, obtidos mediante impregnação de matrizes celulares de grafite com solução de colagénio, após preparação prévia das matrizes de grafite celular. Os compósitos com esqueleto cerâmico (ii) requereram o desenvolvimento prévio de um método para o seu processamento, baseado na emulsificação de suspensões de Al2O3 em parafina fundida, com adequados aditivos dispersantes, tensioactivos e consolidantes do esqueleto cerâmico, tornando-o auto-suportável durante as fases posteriores de eliminação da parafina, até à queima a alta temperatura, originando cerâmicos celulares com adequada resistência mecânica. Os compósitos desenvolvidos apresentam melhorias significativos de condutividade térmica, atingindo ganhos superiores a 1 ordem de grandeza com frações de fase condutora inferior a 10 % vol. (4 W m-1 K-1), em virtude da organização core-shell e com o contributo adicional da anisotropia da grafite, mediante orientação preferencial. Foram ainda preparados compósitos de armazenamento de frio (iii), com orientação aleatória da fase condutora, obtidos mediante gelificação de suspensões de partículas de grafite em solução aquosa de colagénio. Apesar da estabilidade microestrutural e de forma, conferida por gelificação, estes compósitos confirmaram a esperada limitação dos compósitos com distribuição aleatória, em confronto com os ganhos alcançados com a organização de tipo core-shell.
Resumo:
A literatura da especialidade indica que os estudantes do Ensino Superior (ES) demonstram falta de competências de pesquisa, seleção e tratamento de informação científica com recurso às Tecnologias da Informação e Comunicação (TIC), nomeadamente as ferramentas da Web 2.0. A maioria dos estudos sobre esta temática envolve estudantes de 1.º Ciclo do Ensino Superior, sendo poucos os que se baseiam em referenciais de avaliação destas competências. Visando obter subsídios práticos e teóricos sobre a avaliação dessas competências, ter conhecimento das competências nesta área que os estudantes do ES, em nível de pós-graduação, possuem, e das suas necessidades de formação neste domínio, desenvolveu-se um estudo que foi desenvolvido em três fases. Na primeira fase após a identificação do problema a ser estudado, a falta de competências relacionadas com a Literacia de Informação (LI) de estudantes de pós-graduação, foi realizada a revisão da literatura para a determinação dos conceitos basilares e a sustentação teórica das fases subsequentes, que prendem-se com as competências relacionadas com a LI e como estas têm sido avaliadas. A segunda fase ocupou-se da avaliação de estudantes dos 2.º e 3.º Ciclos do Departamento de Educação da Universidade de Aveiro (UA). Com base na revisão da literatura e em colaboração com os bibliotecários da UA foi definido o referencial de avaliação das competências que definem as dimensões de pesquisa, seleção e tratamento de informação científica, com recurso às TIC. A confiabilidade deste referencial (primeira questão de investigação) foi estabelecida a partir dos contributos de docentes/bibliotecários de Instituições de Ensino Superior (IES), de Portugal e do Brasil. Optou-se pela técnica de estatística descritiva e análise de conteúdo para o estudo das informações destes profissionais. Deste modo, esta investigação permitiu a construção de um referencial de avaliação das competências relacionadas com a LI, com recurso às TIC. O referencial é um fundamento para a construção de instrumentos de avaliação em razão de evidenciar as competências que os estudantes do ES devem possuir de pesquisa, seleção e tratamento de informação científica, com recurso às TIC. Assim, foi permitido, com base no referencial de avaliação e no instrumento de recolha de dados utilizado com os profissionais de IES, desenvolver um questionário que foi aplicado aos estudantes de pós-graduação do Departamento de Educação da UA. Pelas respostas, obteve-se o conhecimento da perceção que possuem a respeito das suas competências de pesquisa, seleção e tratamento de informação científica, com recurso às TIC, e das suas necessidades de formação neste domínio (segunda e terceira questões de avaliação). Para esta análise optou-se pela técnica de estatística descritiva. A terceira fase ocupou-se da escrita da tese, que foi desenvolvida ao longo de toda a investigação, sendo mais intensa nos últimos seis meses. Os resultados da avaliação indicam não só que a maior parte dos estudantes aponta saber utilizar ferramentas digitais mas também têm a perceção de possuir competências relacionadas com a LI, com recurso às TIC, a nível elevado e muito elevado. As repostas da avaliação foram confrontadas com a literatura consultada. De modo igual, indicam que os estudantes do ES superestimam suas competências nesta área, embora não apresentem ações eficazes que demonstrem dominar as competências que supõem ter, sendo um indicativo da necessidade de formação destes estudantes. Recomenda-se que a academia leve em conta o confronto diário com estas tecnologias, que permeiam o modo de aprendizagem de estudantes. Os intervenientes do ambiente académico devem trabalhar em colaboração contínua, para que a partir de ações bem planejadas se possam colmatar as lacunas apresentadas. Devem-se atender as necessidades de formação de estudantes de pós-graduação identificadas por meio de avaliações, com base num referencial. É decursiva, para trabalhos futuros, a necessidade de analisar a confiabilidade do questionário que foi aplicado aos estudantes dos 2.º e 3.º Ciclos do Departamento de Educação da UA e os resultados da sua aplicação, fazendo-o evoluir de acordo com o feedback da sua utilização e a evolução das TIC.
Resumo:
Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.
Resumo:
“Branch-and-cut” algorithm is one of the most efficient exact approaches to solve mixed integer programs. This algorithm combines the advantages of a pure branch-and-bound approach and cutting planes scheme. Branch-and-cut algorithm computes the linear programming relaxation of the problem at each node of the search tree which is improved by the use of cuts, i.e. by the inclusion of valid inequalities. It should be taken into account that selection of strongest cuts is crucial for their effective use in branch-and-cut algorithm. In this thesis, we focus on the derivation and use of cutting planes to solve general mixed integer problems, and in particular inventory problems combined with other problems such as distribution, supplier selection, vehicle routing, etc. In order to achieve this goal, we first consider substructures (relaxations) of such problems which are obtained by the coherent loss of information. The polyhedral structure of those simpler mixed integer sets is studied to derive strong valid inequalities. Finally those strong inequalities are included in the cutting plane algorithms to solve the general mixed integer problems. We study three mixed integer sets in this dissertation. The first two mixed integer sets arise as a subproblem of the lot-sizing with supplier selection, the network design and the vendor-managed inventory routing problems. These sets are variants of the well-known single node fixed-charge network set where a binary or integer variable is associated with the node. The third set occurs as a subproblem of mixed integer sets where incompatibility between binary variables is considered. We generate families of valid inequalities for those sets, identify classes of facet-defining inequalities, and discuss the separation problems associated with the inequalities. Then cutting plane frameworks are implemented to solve some mixed integer programs. Preliminary computational experiments are presented in this direction.
Resumo:
A modelação e análise de séries temporais de valores inteiros têm sido alvo de grande investigação e desenvolvimento nos últimos anos, com aplicações várias em diversas áreas da ciência. Nesta tese a atenção centrar-se-á no estudo na classe de modelos basedos no operador thinning binomial. Tendo como base o operador thinning binomial, esta tese focou-se na construção e estudo de modelos SETINAR(2; p(1); p(2)) e PSETINAR(2; 1; 1)T , modelos autorregressivos de valores inteiros com limiares autoinduzidos e dois regimes, admitindo que as inovações formam uma sucessão de variáveis independentes com distribuição de Poisson. Relativamente ao primeiro modelo analisado, o modelo SETINAR(2; p(1); p(2)), além do estudo das suas propriedades probabilísticas e de métodos, clássicos e bayesianos, para estimar os parâmetros, analisou-se a questão da seleção das ordens, no caso de elas serem desconhecidas. Com este objetivo consideraram-se algoritmos de Monte Carlo via cadeias de Markov, em particular o algoritmo Reversible Jump, abordando-se também o problema da seleção de modelos, usando metodologias clássica e bayesiana. Complementou-se a análise através de um estudo de simulação e uma aplicação a dois conjuntos de dados reais. O modelo PSETINAR(2; 1; 1)T proposto, é também um modelo autorregressivo com limiares autoinduzidos e dois regimes, de ordem unitária em cada um deles, mas apresentando uma estrutura periódica. Estudaram-se as suas propriedades probabilísticas, analisaram-se os problemas de inferência e predição de futuras observações e realizaram-se estudos de simulação.
Resumo:
A crescente dinamização de blogues no contexto escolar português, resultante das mais-valias e dos respetivos incentivos à utilização de ferramentas tecnológicas da Web 2.0, assumiu uma prática frequente a partir dos inícios do século XXI. Uma rápida pesquisa na Internet permite-nos verificar um número considerável de blogues usados na lecionação do Português, bem como uma diversidade no que diz respeito a propósitos e finalidades de utilização. Com a nossa investigação pretendemos estudar de que forma se processa o ensino-aprendizagem da Língua Portuguesa/Português em alunos do 3.º Ciclo do Ensino Básico (CEB), através do recurso a esta ferramenta, colocando o foco de análise no domínio da escrita. Procuramos percecionar as motivações e as dinâmicas privilegiadas e recorrentes na utilização pedagógica dos blogues no âmbito do ensino-aprendizagem da escrita a alunos do 3.º CEB. O nosso percurso de investigação foi delineado de acordo com duas fases de atuação. Numa primeira, fizemos um levantamento de “blogues estratégia” associados à prática docente da disciplina de Português no 3.º CEB, optando, nesta etapa, por uma análise quantitativa. A pesquisa e o contacto mais aprofundado que fomos fazendo conduziram-nos à definição de critérios de seleção e à construção e reformulação de uma grelha de identificação e caracterização geral dos blogues, que nos orientou nesta recolha. Elaborámos e aplicámos também um questionário a professores dinamizadores de blogues no âmbito do nosso trabalho que permitiu o alargamento do nosso corpus documental, bem como definir outros elementos para posterior análise. Tendo em conta a diversidade de objetivos e finalidades, muitas vezes referidos nos próprios blogues, optámos por definir três categorias, de forma a favorecer a recolha e a amostra no âmbito no nosso trabalho, designadamente “Blogue Cartolina", “Blogue Turma” e “Blogue Projeto”. Numa segunda fase, e depois da seleção dos posts no âmbito do ensinoaprendizagem da escrita que fazem parte da nossa base documental, partimos para uma análise mais aprofundada do conteúdo publicado. Para tal, elaborámos uma segunda grelha com indicadores para recolha de dados, tendo definido quatro práticas de escrita (Divulgação, Solicitação, Reformulação e Partilha), e uma terceira grelha, com tipos de interação, para uma análise da participação através de comentários que se desencadeia a partir das publicações. No fundo, o nosso propósito consistiu em aferir a organização e as dinâmicas de funcionamento dos “blogues estratégia” ligados ao ensino-aprendizagem da escrita do 3.º Ciclo do Ensino Básico e, neste sentido, percecionarmos de que forma estas funcionalidades tecnológicas poderão contribuir para o desenvolvimento da escrita junto dos alunos.
Resumo:
Partindo da importância de que se reveste a escrita para construção e explicitação do conhecimento, e da necessidade de os professores fazerem uma mediação da aprendizagem desta vertente da escrita, procurámos analisar e perceber de que modo as práticas de escrita que os professores implementam influenciam a qualidade dos textos que os alunos produzem. No sentido de dar resposta à questão enunciada, definimos um objetivo geral: avaliar se um dispositivo didático, o MDG, construído com base no conhecimento das propriedades dos géneros e dos textos, implementado de forma explícita e intencional pelos professores, pode refletir-se, e a que níveis, na qualidade dos textos que os alunos produzem. O estudo foi realizado no contexto de um programa de formação que envolveu 14 professores dos três ciclos do ensino básico, para o qual definimos três fases distintas: (i) caracterização das práticas de escrita dos professores dos três ciclos do ensino básico antes da planificação do MDG; ii) caracterização das práticas de escrita dos alunos de uma turma do 4.º ano de escolaridade antes da implementação do MDG, e (iii) avaliação das práticas de escrita dos alunos depois de implementado o MDG pelos professores. Os dados foram recolhidos através da análise qualitativa e quantitativa das planificações dos professores e dos textos dos alunos. Os resultados evidenciam que nas fases prévias à implementação do MDG há a ausência de critérios específicos de avaliação dos textos e a utilização de instruções de escrita demasiado vagas, pouco orientadoras da produção do texto do género por parte dos alunos. Por sua vez, estes revelaram dificuldades quer na seleção de informação, ao nível da escolha dos conteúdos pertinentes, quer na produção do género pedido, já que o texto final configura uma colagem de partes de textos lidos, sem qualquer configuração adaptada ao género. Já na fase 3, e depois de planificado e implementado o MDG, os alunos demonstraram um melhor desempenho na seleção de informação e na escrita do texto. No entanto, foi também possível identificar alguns aspetos em que não apresentaram mudança ou que essa mudança não foi significativa.
Resumo:
Desde que surgiu há mais de 50 anos, a televisão sofreu muitas transformações, tanto ao nível tecnológico (por exemplo com a passagem da emissão a preto/branco para cor, o som analógico para digital, a difusão digital) como a nível da sua influência nas sociedades. Entre outros fatores de ordem tecnológica, a consolidação da Internet com o seu elevado nível de personalização, da experiência de utilização, e a sua enorme quantidade de conteúdos disponíveis, catapultou a televisão no sentido de esta se tornar mais interativa. Assim, o telespectador passou a poder usufruir de uma experiência televisiva que pode, por um lado, ser mais participativa, sendo-lhe possível, por exemplo, alvitrar sobre a qualidade de um programa enquanto assiste à sua exibição, e, por outro, ser mais personalizada, possibilitando-lhe, por exemplo, receber conteúdos automaticamente adequados ao seu perfil e contexto. No entanto, esta experiência mais participativa e personalizável carece de uma identificação, idealmente automática e não intrusiva, de quem pode beneficiar da mesma – o telespectador. Contudo, e apesar de significativos avanços na área da televisão interativa, tanto ao nível da infraestrutura de suporte como ao nível dos serviços disponibilizados, a identificação dos utilizadores é, ainda, uma área de estudo com muitos aspetos por compreender. Os seniores, em particular, são grandes consumidores de televisão e representam uma fatia muito considerável das pessoas que podem beneficiar das potencialidades disponibilizadas pela interatividade presente em muitos serviços atuais. Um número crescente destes serviços são desenhados com o objetivo de promoverem um envelhecimento ativo e um concreto apoio à vida, pelo que os seniores podem beneficiar, em vários aspetos do seu quotidiano, se os utilizarem. Nesta faixa etária, a identificação de utilizadores tem, como elemento potenciador da experiência de utilização, um papel especialmente importante ao nível de um aproveitamento personalizado e dirigido destes serviços. No entanto, atendendo às diferentes combinações de características físicas, sensoriais, cognitivas e, mesmo, de literacia digital que tipificam os seniores, perspetivou-se existir uma dependência do perfil do utilizador na seleção do método de identificação mais adequado, os quais podem ser baseados, por exemplo, num leitor de impressões digitais, instalado no telecomando; na leitura de uma wearable tag ou de um cartão RFiD; no reconhecimento da face e, eventualmente, na voz do utilizador. Assim, a inerente investigação desenrolou-se em várias fases, no sentido de permitir alicerçar a construção de uma matriz de decisão tecnológica que, em função do perfil de utilizador, selecione o sistema de identificação mais adequado. O procedimento metodológico inerente à construção desta matriz de decisão, passou por um longo processo envolvendo utilizadores reais, que se iniciou com a realização de entrevistas exploratórias com o objetivo de permitir conhecer melhor os seniores e a forma como estes encaram a tecnologia e, mais concretamente, a televisão interativa. Foi depois implementado um protótipo de alta-fidelidade, completamente funcional, para a realização de testes com o objetivo de perceber qual a preferência relativamente a um subconjunto de tecnologias de identificação. Estes testes, uma vez que não permitiram testar todas as tecnologias em estudo, revelaram-se inconclusivos, porém permitiram reforçar a necessidade de identificar e caracterizar os referidos aspetos do perfil do utilizador que podem interferir na sua preferência relativamente ao sistema de identificação. As características identificadas constituíram-se como os parâmetros de entrada da matriz, sendo que para preencher as respetivas células realizaramse testes de aceitação, com um conjunto de seniores, tendo por base um protótipo, wizard of oz, especificamente implementado para permitir experienciar todas as tecnologias em estudo. Estes testes foram precedidos pela avaliação das capacidades funcionais dos participantes, nos diversos parâmetros definidos. Este texto relata, assim, todo o processo de investigação que foi conduzido, terminando com uma descrição de exemplos de utilização da matriz de decisão implementada e com a identificação de potenciais caminhos de desenvolvimento deste trabalho.
Resumo:
Nos últimos anos temos vindo a assistir a uma mudança na forma como a informação é disponibilizada online. O surgimento da web para todos possibilitou a fácil edição, disponibilização e partilha da informação gerando um considerável aumento da mesma. Rapidamente surgiram sistemas que permitem a coleção e partilha dessa informação, que para além de possibilitarem a coleção dos recursos também permitem que os utilizadores a descrevam utilizando tags ou comentários. A organização automática dessa informação é um dos maiores desafios no contexto da web atual. Apesar de existirem vários algoritmos de clustering, o compromisso entre a eficácia (formação de grupos que fazem sentido) e a eficiência (execução em tempo aceitável) é difícil de encontrar. Neste sentido, esta investigação tem por problemática aferir se um sistema de agrupamento automático de documentos, melhora a sua eficácia quando se integra um sistema de classificação social. Analisámos e discutimos dois métodos baseados no algoritmo k-means para o clustering de documentos e que possibilitam a integração do tagging social nesse processo. O primeiro permite a integração das tags diretamente no Vector Space Model e o segundo propõe a integração das tags para a seleção das sementes iniciais. O primeiro método permite que as tags sejam pesadas em função da sua ocorrência no documento através do parâmetro Social Slider. Este método foi criado tendo por base um modelo de predição que sugere que, quando se utiliza a similaridade dos cossenos, documentos que partilham tags ficam mais próximos enquanto que, no caso de não partilharem, ficam mais distantes. O segundo método deu origem a um algoritmo que denominamos k-C. Este para além de permitir a seleção inicial das sementes através de uma rede de tags também altera a forma como os novos centróides em cada iteração são calculados. A alteração ao cálculo dos centróides teve em consideração uma reflexão sobre a utilização da distância euclidiana e similaridade dos cossenos no algoritmo de clustering k-means. No contexto da avaliação dos algoritmos foram propostos dois algoritmos, o algoritmo da “Ground truth automática” e o algoritmo MCI. O primeiro permite a deteção da estrutura dos dados, caso seja desconhecida, e o segundo é uma medida de avaliação interna baseada na similaridade dos cossenos entre o documento mais próximo de cada documento. A análise de resultados preliminares sugere que a utilização do primeiro método de integração das tags no VSM tem mais impacto no algoritmo k-means do que no algoritmo k-C. Além disso, os resultados obtidos evidenciam que não existe correlação entre a escolha do parâmetro SS e a qualidade dos clusters. Neste sentido, os restantes testes foram conduzidos utilizando apenas o algoritmo k-C (sem integração de tags no VSM), sendo que os resultados obtidos indicam que a utilização deste algoritmo tende a gerar clusters mais eficazes.
Resumo:
Desulfurization is one of the most important processes in the refining industry. Due to a growing concern about the risks to human health and environment, associated with the emissions of sulfur compounds, legislation has become more stringent, requiring a drastic reduction in the sulfur content of fuel to levels close to zero (< 10 ppm S). However, conventional desulfurization processes are inefficient and have high operating costs. This scenario stimulates the improvement of existing processes and the development of new and more efficient technologies. Aiming at overcoming these shortcomings, this work investigates an alternative desulfurization process using ionic liquids for the removal of mercaptans from "jet fuel" streams. The screening and selection of the most suitable ionic liquid were performed based on experimental and COSMO-RS predicted liquid-liquid equilibrium data. A model feed of 1-hexanethiol and n-dodecane was selected to represent a jet-fuel stream. High selectivities were determined, as a result of the low mutual solubility between the ionic liquid and the hydrocarbon matrix, proving the potential use of the ionic liquid, which prevents the loss of fuel for the solvent. The distribution ratios of mercaptans towards the ionic liquids were not as favorable, making the traditional liquid-liquid extraction processes not suitable for the removal of aliphatic S-compounds due to the high volume of extractant required. This work explores alternative methods and proposes the use of ionic liquids in a separation process assisted by membranes. In the process proposed the ionic liquid is used as extracting solvent of the sulfur species, in a hollow fiber membrane contactor, without co-extracting the other jet-fuel compound. In a second contactor, the ionic liquid is regenerated applying a sweep gas stripping, which allows for its reuse in a closed loop between the two membrane contactors. This integrated extraction/regeneration process of desulfurization produced a jet-fuel model with sulfur content lower than 2 ppm of S, as envisaged by legislation for the use of ultra-low sulfur jet-fuel. This result confirms the high potential for development of ultra-deep desulfurization application.