894 resultados para Recrutamento e seleção


Relevância:

10.00% 10.00%

Publicador:

Resumo:

During the last few decades, Metal-Organic Frameworks (MOFs), also known as Coordination Polymers, have attracted worldwide research attentions due to their incremented fascinating architectures and unique properties. These multidimensional materials have been potential applications in distinct areas: gas storage and separation, ion exchange, catalysis, magnetism, in optical sensors, among several others. The MOF research group at the University of Aveiro has prepared MOFs from the combination of phosphonate organic primary building units (PBUs) with, mainly, lanthanides. This thesis documents the last findings in this area involving the synthesis of multidimensional MOFs based on four di- or tripodal phosphonates ligands. The organic PBUs were designed and prepared by selecting and optimizing the best reaction conditions and synthetic routes. The self-assembly between phosphonate PBUs and rare-earths cations led to the formation of several 1D, 2D and 3D families of isotypical MOFs. The preparation of these materials was achieved by using distinct synthetic approaches: hydro(solvo)thermal, microwave- and ultrasound-assisted, one-pot and ionothermal synthesis. The selection of the organic PBUs showed to have an important role in the final architectures: while flexible phosphonate ligands afforded 1D, 2D and dense 3D structures, a large and rigid organic PBU isolated a porous 3D MOF. The crystal structure of these materials was successfully unveiled by powder or single-crystal X-ray diffraction. All multidimensional MOFs were characterized by standard solid-state techniques (FT-IR, electron microscopy (SEM and EDS), solid-state NMR, elemental and thermogravimetric analysis). Some MOF materials exhibited remarkable thermal stability and robustness up to ca. 400 ºC. The intrinsic properties of some MOFs were investigated. Photoluminescence studies revealed that the selected organic PBUs are suitable sensitizers of Tb3+ leading to the isolation of intense green-emitting materials. The suppression of the O−H quenchers by deuteration or dehydration processes improves substantially the photoluminescence of the optically-active Eu3+-based materials. Some MOF materials exhibited high heterogeneous catalytic activity and excellent regioselectivity in the ring-opening reaction of styrene oxide (PhEtO) with methanol (100% conversion of PhEtO at 55 ºC for 30 min). The porous MOF material was employed in gas separation processes. This compound showed the ability to separate propane over propylene. The ionexchanged form of this material (containing K+ cations into its network) exhibited higher affinity for CO2 being capable to separate acetylene over this environment non-friendly gas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

É extensa a bibliografia dedicada a potenciais aplicações de materiais com mudança de fase na regulação térmica e no armazenamento de calor ou de frio. No entanto, a baixa condutividade térmica impõe limitações numa grande diversidade de aplicações com exigências críticas em termos de tempo de resposta curto ou com requisitos de elevada potência em ciclos de carga/descarga de calor latente. Foram desenvolvidos códigos numéricos no sentido de obter soluções precisas para descrever a cinética da transferência de calor com mudança de fase, com base em geometrias representativas, i.e. planar e esférica. Foram igualmente propostas soluções aproximadas, sendo identificados correspondentes critérios de validação em função das propriedades dos materiais de mudança de fase e de outros parâmetros relevantes tais como as escalas de tamanho e de tempo, etc. As referidas soluções permitiram identificar com rigor os fatores determinantes daquelas limitações, quantificar os correspondentes efeitos e estabelecer critérios de qualidade adequados para diferentes tipologias de potenciais aplicações. Os referidos critérios foram sistematizados de acordo com metodologias de seleção propostas por Ashby e co-autores, tendo em vista o melhor desempenho dos materiais em aplicações representativas, designadamente com requisitos ao nível de densidade energética, tempo de resposta, potência de carga/descarga e gama de temperaturas de operação. Nesta sistematização foram incluídos alguns dos compósitos desenvolvidos durante o presente trabalho. A avaliação das limitações acima mencionadas deu origem ao desenvolvimento de materiais compósitos para acumulação de calor ou frio, com acentuada melhoria de resposta térmica, mediante incorporação de uma fase com condutividade térmica muito superior à da matriz. Para este efeito, foram desenvolvidos modelos para otimizar a distribuição espacial da fase condutora, de modo a superar os limites de percolação previstos por modelos clássicos de condução em compósitos com distribuição aleatória, visando melhorias de desempenho térmico com reduzidas frações de fase condutora e garantindo que a densidade energética não é significativamente afetada. Os modelos elaborados correspondem a compósitos de tipo core-shell, baseados em microestruturas celulares da fase de elevada condutividade térmica, impregnadas com o material de mudança de fase propriamente dito. Além de visarem a minimização da fração de fase condutora e correspondentes custos, os modelos de compósitos propostos tiveram em conta a adequação a métodos de processamento versáteis, reprodutíveis, preferencialmente com base na emulsificação de líquidos orgânicos em suspensões aquosas ou outros processos de reduzidas complexidade e com base em materiais de baixo custo (material de mudança de fase e fase condutora). O design da distribuição microestrutural também considerou a possibilidade de orientação preferencial de fases condutoras com elevada anisotropia (p.e. grafite), mediante auto-organização. Outros estágios do projeto foram subordinados a esses objetivos de desenvolvimento de compósitos com resposta térmica otimizada, em conformidade com previsões dos modelos de compósitos de tipo core-shell, acima mencionadas. Neste enquadramento, foram preparados 3 tipos de compósitos com organização celular da fase condutora, com as seguintes características e metodologias: i) compósitos celulares parafina-grafite para acumulação de calor, preparados in-situ por emulsificação de uma suspensão de grafite em parafina fundida; ii) compósitos celulares parafina-Al2O3 para acumulação de calor, preparados por impregnação de parafina em esqueleto cerâmico celular de Al2O3; iii) compósitos celulares para acumulação de frio, obtidos mediante impregnação de matrizes celulares de grafite com solução de colagénio, após preparação prévia das matrizes de grafite celular. Os compósitos com esqueleto cerâmico (ii) requereram o desenvolvimento prévio de um método para o seu processamento, baseado na emulsificação de suspensões de Al2O3 em parafina fundida, com adequados aditivos dispersantes, tensioactivos e consolidantes do esqueleto cerâmico, tornando-o auto-suportável durante as fases posteriores de eliminação da parafina, até à queima a alta temperatura, originando cerâmicos celulares com adequada resistência mecânica. Os compósitos desenvolvidos apresentam melhorias significativos de condutividade térmica, atingindo ganhos superiores a 1 ordem de grandeza com frações de fase condutora inferior a 10 % vol. (4 W m-1 K-1), em virtude da organização core-shell e com o contributo adicional da anisotropia da grafite, mediante orientação preferencial. Foram ainda preparados compósitos de armazenamento de frio (iii), com orientação aleatória da fase condutora, obtidos mediante gelificação de suspensões de partículas de grafite em solução aquosa de colagénio. Apesar da estabilidade microestrutural e de forma, conferida por gelificação, estes compósitos confirmaram a esperada limitação dos compósitos com distribuição aleatória, em confronto com os ganhos alcançados com a organização de tipo core-shell.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A literatura da especialidade indica que os estudantes do Ensino Superior (ES) demonstram falta de competências de pesquisa, seleção e tratamento de informação científica com recurso às Tecnologias da Informação e Comunicação (TIC), nomeadamente as ferramentas da Web 2.0. A maioria dos estudos sobre esta temática envolve estudantes de 1.º Ciclo do Ensino Superior, sendo poucos os que se baseiam em referenciais de avaliação destas competências. Visando obter subsídios práticos e teóricos sobre a avaliação dessas competências, ter conhecimento das competências nesta área que os estudantes do ES, em nível de pós-graduação, possuem, e das suas necessidades de formação neste domínio, desenvolveu-se um estudo que foi desenvolvido em três fases. Na primeira fase após a identificação do problema a ser estudado, a falta de competências relacionadas com a Literacia de Informação (LI) de estudantes de pós-graduação, foi realizada a revisão da literatura para a determinação dos conceitos basilares e a sustentação teórica das fases subsequentes, que prendem-se com as competências relacionadas com a LI e como estas têm sido avaliadas. A segunda fase ocupou-se da avaliação de estudantes dos 2.º e 3.º Ciclos do Departamento de Educação da Universidade de Aveiro (UA). Com base na revisão da literatura e em colaboração com os bibliotecários da UA foi definido o referencial de avaliação das competências que definem as dimensões de pesquisa, seleção e tratamento de informação científica, com recurso às TIC. A confiabilidade deste referencial (primeira questão de investigação) foi estabelecida a partir dos contributos de docentes/bibliotecários de Instituições de Ensino Superior (IES), de Portugal e do Brasil. Optou-se pela técnica de estatística descritiva e análise de conteúdo para o estudo das informações destes profissionais. Deste modo, esta investigação permitiu a construção de um referencial de avaliação das competências relacionadas com a LI, com recurso às TIC. O referencial é um fundamento para a construção de instrumentos de avaliação em razão de evidenciar as competências que os estudantes do ES devem possuir de pesquisa, seleção e tratamento de informação científica, com recurso às TIC. Assim, foi permitido, com base no referencial de avaliação e no instrumento de recolha de dados utilizado com os profissionais de IES, desenvolver um questionário que foi aplicado aos estudantes de pós-graduação do Departamento de Educação da UA. Pelas respostas, obteve-se o conhecimento da perceção que possuem a respeito das suas competências de pesquisa, seleção e tratamento de informação científica, com recurso às TIC, e das suas necessidades de formação neste domínio (segunda e terceira questões de avaliação). Para esta análise optou-se pela técnica de estatística descritiva. A terceira fase ocupou-se da escrita da tese, que foi desenvolvida ao longo de toda a investigação, sendo mais intensa nos últimos seis meses. Os resultados da avaliação indicam não só que a maior parte dos estudantes aponta saber utilizar ferramentas digitais mas também têm a perceção de possuir competências relacionadas com a LI, com recurso às TIC, a nível elevado e muito elevado. As repostas da avaliação foram confrontadas com a literatura consultada. De modo igual, indicam que os estudantes do ES superestimam suas competências nesta área, embora não apresentem ações eficazes que demonstrem dominar as competências que supõem ter, sendo um indicativo da necessidade de formação destes estudantes. Recomenda-se que a academia leve em conta o confronto diário com estas tecnologias, que permeiam o modo de aprendizagem de estudantes. Os intervenientes do ambiente académico devem trabalhar em colaboração contínua, para que a partir de ações bem planejadas se possam colmatar as lacunas apresentadas. Devem-se atender as necessidades de formação de estudantes de pós-graduação identificadas por meio de avaliações, com base num referencial. É decursiva, para trabalhos futuros, a necessidade de analisar a confiabilidade do questionário que foi aplicado aos estudantes dos 2.º e 3.º Ciclos do Departamento de Educação da UA e os resultados da sua aplicação, fazendo-o evoluir de acordo com o feedback da sua utilização e a evolução das TIC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Branch-and-cut” algorithm is one of the most efficient exact approaches to solve mixed integer programs. This algorithm combines the advantages of a pure branch-and-bound approach and cutting planes scheme. Branch-and-cut algorithm computes the linear programming relaxation of the problem at each node of the search tree which is improved by the use of cuts, i.e. by the inclusion of valid inequalities. It should be taken into account that selection of strongest cuts is crucial for their effective use in branch-and-cut algorithm. In this thesis, we focus on the derivation and use of cutting planes to solve general mixed integer problems, and in particular inventory problems combined with other problems such as distribution, supplier selection, vehicle routing, etc. In order to achieve this goal, we first consider substructures (relaxations) of such problems which are obtained by the coherent loss of information. The polyhedral structure of those simpler mixed integer sets is studied to derive strong valid inequalities. Finally those strong inequalities are included in the cutting plane algorithms to solve the general mixed integer problems. We study three mixed integer sets in this dissertation. The first two mixed integer sets arise as a subproblem of the lot-sizing with supplier selection, the network design and the vendor-managed inventory routing problems. These sets are variants of the well-known single node fixed-charge network set where a binary or integer variable is associated with the node. The third set occurs as a subproblem of mixed integer sets where incompatibility between binary variables is considered. We generate families of valid inequalities for those sets, identify classes of facet-defining inequalities, and discuss the separation problems associated with the inequalities. Then cutting plane frameworks are implemented to solve some mixed integer programs. Preliminary computational experiments are presented in this direction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelação e análise de séries temporais de valores inteiros têm sido alvo de grande investigação e desenvolvimento nos últimos anos, com aplicações várias em diversas áreas da ciência. Nesta tese a atenção centrar-se-á no estudo na classe de modelos basedos no operador thinning binomial. Tendo como base o operador thinning binomial, esta tese focou-se na construção e estudo de modelos SETINAR(2; p(1); p(2)) e PSETINAR(2; 1; 1)T , modelos autorregressivos de valores inteiros com limiares autoinduzidos e dois regimes, admitindo que as inovações formam uma sucessão de variáveis independentes com distribuição de Poisson. Relativamente ao primeiro modelo analisado, o modelo SETINAR(2; p(1); p(2)), além do estudo das suas propriedades probabilísticas e de métodos, clássicos e bayesianos, para estimar os parâmetros, analisou-se a questão da seleção das ordens, no caso de elas serem desconhecidas. Com este objetivo consideraram-se algoritmos de Monte Carlo via cadeias de Markov, em particular o algoritmo Reversible Jump, abordando-se também o problema da seleção de modelos, usando metodologias clássica e bayesiana. Complementou-se a análise através de um estudo de simulação e uma aplicação a dois conjuntos de dados reais. O modelo PSETINAR(2; 1; 1)T proposto, é também um modelo autorregressivo com limiares autoinduzidos e dois regimes, de ordem unitária em cada um deles, mas apresentando uma estrutura periódica. Estudaram-se as suas propriedades probabilísticas, analisaram-se os problemas de inferência e predição de futuras observações e realizaram-se estudos de simulação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente dinamização de blogues no contexto escolar português, resultante das mais-valias e dos respetivos incentivos à utilização de ferramentas tecnológicas da Web 2.0, assumiu uma prática frequente a partir dos inícios do século XXI. Uma rápida pesquisa na Internet permite-nos verificar um número considerável de blogues usados na lecionação do Português, bem como uma diversidade no que diz respeito a propósitos e finalidades de utilização. Com a nossa investigação pretendemos estudar de que forma se processa o ensino-aprendizagem da Língua Portuguesa/Português em alunos do 3.º Ciclo do Ensino Básico (CEB), através do recurso a esta ferramenta, colocando o foco de análise no domínio da escrita. Procuramos percecionar as motivações e as dinâmicas privilegiadas e recorrentes na utilização pedagógica dos blogues no âmbito do ensino-aprendizagem da escrita a alunos do 3.º CEB. O nosso percurso de investigação foi delineado de acordo com duas fases de atuação. Numa primeira, fizemos um levantamento de “blogues estratégia” associados à prática docente da disciplina de Português no 3.º CEB, optando, nesta etapa, por uma análise quantitativa. A pesquisa e o contacto mais aprofundado que fomos fazendo conduziram-nos à definição de critérios de seleção e à construção e reformulação de uma grelha de identificação e caracterização geral dos blogues, que nos orientou nesta recolha. Elaborámos e aplicámos também um questionário a professores dinamizadores de blogues no âmbito do nosso trabalho que permitiu o alargamento do nosso corpus documental, bem como definir outros elementos para posterior análise. Tendo em conta a diversidade de objetivos e finalidades, muitas vezes referidos nos próprios blogues, optámos por definir três categorias, de forma a favorecer a recolha e a amostra no âmbito no nosso trabalho, designadamente “Blogue Cartolina", “Blogue Turma” e “Blogue Projeto”. Numa segunda fase, e depois da seleção dos posts no âmbito do ensinoaprendizagem da escrita que fazem parte da nossa base documental, partimos para uma análise mais aprofundada do conteúdo publicado. Para tal, elaborámos uma segunda grelha com indicadores para recolha de dados, tendo definido quatro práticas de escrita (Divulgação, Solicitação, Reformulação e Partilha), e uma terceira grelha, com tipos de interação, para uma análise da participação através de comentários que se desencadeia a partir das publicações. No fundo, o nosso propósito consistiu em aferir a organização e as dinâmicas de funcionamento dos “blogues estratégia” ligados ao ensino-aprendizagem da escrita do 3.º Ciclo do Ensino Básico e, neste sentido, percecionarmos de que forma estas funcionalidades tecnológicas poderão contribuir para o desenvolvimento da escrita junto dos alunos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partindo da importância de que se reveste a escrita para construção e explicitação do conhecimento, e da necessidade de os professores fazerem uma mediação da aprendizagem desta vertente da escrita, procurámos analisar e perceber de que modo as práticas de escrita que os professores implementam influenciam a qualidade dos textos que os alunos produzem. No sentido de dar resposta à questão enunciada, definimos um objetivo geral: avaliar se um dispositivo didático, o MDG, construído com base no conhecimento das propriedades dos géneros e dos textos, implementado de forma explícita e intencional pelos professores, pode refletir-se, e a que níveis, na qualidade dos textos que os alunos produzem. O estudo foi realizado no contexto de um programa de formação que envolveu 14 professores dos três ciclos do ensino básico, para o qual definimos três fases distintas: (i) caracterização das práticas de escrita dos professores dos três ciclos do ensino básico antes da planificação do MDG; ii) caracterização das práticas de escrita dos alunos de uma turma do 4.º ano de escolaridade antes da implementação do MDG, e (iii) avaliação das práticas de escrita dos alunos depois de implementado o MDG pelos professores. Os dados foram recolhidos através da análise qualitativa e quantitativa das planificações dos professores e dos textos dos alunos. Os resultados evidenciam que nas fases prévias à implementação do MDG há a ausência de critérios específicos de avaliação dos textos e a utilização de instruções de escrita demasiado vagas, pouco orientadoras da produção do texto do género por parte dos alunos. Por sua vez, estes revelaram dificuldades quer na seleção de informação, ao nível da escolha dos conteúdos pertinentes, quer na produção do género pedido, já que o texto final configura uma colagem de partes de textos lidos, sem qualquer configuração adaptada ao género. Já na fase 3, e depois de planificado e implementado o MDG, os alunos demonstraram um melhor desempenho na seleção de informação e na escrita do texto. No entanto, foi também possível identificar alguns aspetos em que não apresentaram mudança ou que essa mudança não foi significativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde que surgiu há mais de 50 anos, a televisão sofreu muitas transformações, tanto ao nível tecnológico (por exemplo com a passagem da emissão a preto/branco para cor, o som analógico para digital, a difusão digital) como a nível da sua influência nas sociedades. Entre outros fatores de ordem tecnológica, a consolidação da Internet com o seu elevado nível de personalização, da experiência de utilização, e a sua enorme quantidade de conteúdos disponíveis, catapultou a televisão no sentido de esta se tornar mais interativa. Assim, o telespectador passou a poder usufruir de uma experiência televisiva que pode, por um lado, ser mais participativa, sendo-lhe possível, por exemplo, alvitrar sobre a qualidade de um programa enquanto assiste à sua exibição, e, por outro, ser mais personalizada, possibilitando-lhe, por exemplo, receber conteúdos automaticamente adequados ao seu perfil e contexto. No entanto, esta experiência mais participativa e personalizável carece de uma identificação, idealmente automática e não intrusiva, de quem pode beneficiar da mesma – o telespectador. Contudo, e apesar de significativos avanços na área da televisão interativa, tanto ao nível da infraestrutura de suporte como ao nível dos serviços disponibilizados, a identificação dos utilizadores é, ainda, uma área de estudo com muitos aspetos por compreender. Os seniores, em particular, são grandes consumidores de televisão e representam uma fatia muito considerável das pessoas que podem beneficiar das potencialidades disponibilizadas pela interatividade presente em muitos serviços atuais. Um número crescente destes serviços são desenhados com o objetivo de promoverem um envelhecimento ativo e um concreto apoio à vida, pelo que os seniores podem beneficiar, em vários aspetos do seu quotidiano, se os utilizarem. Nesta faixa etária, a identificação de utilizadores tem, como elemento potenciador da experiência de utilização, um papel especialmente importante ao nível de um aproveitamento personalizado e dirigido destes serviços. No entanto, atendendo às diferentes combinações de características físicas, sensoriais, cognitivas e, mesmo, de literacia digital que tipificam os seniores, perspetivou-se existir uma dependência do perfil do utilizador na seleção do método de identificação mais adequado, os quais podem ser baseados, por exemplo, num leitor de impressões digitais, instalado no telecomando; na leitura de uma wearable tag ou de um cartão RFiD; no reconhecimento da face e, eventualmente, na voz do utilizador. Assim, a inerente investigação desenrolou-se em várias fases, no sentido de permitir alicerçar a construção de uma matriz de decisão tecnológica que, em função do perfil de utilizador, selecione o sistema de identificação mais adequado. O procedimento metodológico inerente à construção desta matriz de decisão, passou por um longo processo envolvendo utilizadores reais, que se iniciou com a realização de entrevistas exploratórias com o objetivo de permitir conhecer melhor os seniores e a forma como estes encaram a tecnologia e, mais concretamente, a televisão interativa. Foi depois implementado um protótipo de alta-fidelidade, completamente funcional, para a realização de testes com o objetivo de perceber qual a preferência relativamente a um subconjunto de tecnologias de identificação. Estes testes, uma vez que não permitiram testar todas as tecnologias em estudo, revelaram-se inconclusivos, porém permitiram reforçar a necessidade de identificar e caracterizar os referidos aspetos do perfil do utilizador que podem interferir na sua preferência relativamente ao sistema de identificação. As características identificadas constituíram-se como os parâmetros de entrada da matriz, sendo que para preencher as respetivas células realizaramse testes de aceitação, com um conjunto de seniores, tendo por base um protótipo, wizard of oz, especificamente implementado para permitir experienciar todas as tecnologias em estudo. Estes testes foram precedidos pela avaliação das capacidades funcionais dos participantes, nos diversos parâmetros definidos. Este texto relata, assim, todo o processo de investigação que foi conduzido, terminando com uma descrição de exemplos de utilização da matriz de decisão implementada e com a identificação de potenciais caminhos de desenvolvimento deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos temos vindo a assistir a uma mudança na forma como a informação é disponibilizada online. O surgimento da web para todos possibilitou a fácil edição, disponibilização e partilha da informação gerando um considerável aumento da mesma. Rapidamente surgiram sistemas que permitem a coleção e partilha dessa informação, que para além de possibilitarem a coleção dos recursos também permitem que os utilizadores a descrevam utilizando tags ou comentários. A organização automática dessa informação é um dos maiores desafios no contexto da web atual. Apesar de existirem vários algoritmos de clustering, o compromisso entre a eficácia (formação de grupos que fazem sentido) e a eficiência (execução em tempo aceitável) é difícil de encontrar. Neste sentido, esta investigação tem por problemática aferir se um sistema de agrupamento automático de documentos, melhora a sua eficácia quando se integra um sistema de classificação social. Analisámos e discutimos dois métodos baseados no algoritmo k-means para o clustering de documentos e que possibilitam a integração do tagging social nesse processo. O primeiro permite a integração das tags diretamente no Vector Space Model e o segundo propõe a integração das tags para a seleção das sementes iniciais. O primeiro método permite que as tags sejam pesadas em função da sua ocorrência no documento através do parâmetro Social Slider. Este método foi criado tendo por base um modelo de predição que sugere que, quando se utiliza a similaridade dos cossenos, documentos que partilham tags ficam mais próximos enquanto que, no caso de não partilharem, ficam mais distantes. O segundo método deu origem a um algoritmo que denominamos k-C. Este para além de permitir a seleção inicial das sementes através de uma rede de tags também altera a forma como os novos centróides em cada iteração são calculados. A alteração ao cálculo dos centróides teve em consideração uma reflexão sobre a utilização da distância euclidiana e similaridade dos cossenos no algoritmo de clustering k-means. No contexto da avaliação dos algoritmos foram propostos dois algoritmos, o algoritmo da “Ground truth automática” e o algoritmo MCI. O primeiro permite a deteção da estrutura dos dados, caso seja desconhecida, e o segundo é uma medida de avaliação interna baseada na similaridade dos cossenos entre o documento mais próximo de cada documento. A análise de resultados preliminares sugere que a utilização do primeiro método de integração das tags no VSM tem mais impacto no algoritmo k-means do que no algoritmo k-C. Além disso, os resultados obtidos evidenciam que não existe correlação entre a escolha do parâmetro SS e a qualidade dos clusters. Neste sentido, os restantes testes foram conduzidos utilizando apenas o algoritmo k-C (sem integração de tags no VSM), sendo que os resultados obtidos indicam que a utilização deste algoritmo tende a gerar clusters mais eficazes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desulfurization is one of the most important processes in the refining industry. Due to a growing concern about the risks to human health and environment, associated with the emissions of sulfur compounds, legislation has become more stringent, requiring a drastic reduction in the sulfur content of fuel to levels close to zero (< 10 ppm S). However, conventional desulfurization processes are inefficient and have high operating costs. This scenario stimulates the improvement of existing processes and the development of new and more efficient technologies. Aiming at overcoming these shortcomings, this work investigates an alternative desulfurization process using ionic liquids for the removal of mercaptans from "jet fuel" streams. The screening and selection of the most suitable ionic liquid were performed based on experimental and COSMO-RS predicted liquid-liquid equilibrium data. A model feed of 1-hexanethiol and n-dodecane was selected to represent a jet-fuel stream. High selectivities were determined, as a result of the low mutual solubility between the ionic liquid and the hydrocarbon matrix, proving the potential use of the ionic liquid, which prevents the loss of fuel for the solvent. The distribution ratios of mercaptans towards the ionic liquids were not as favorable, making the traditional liquid-liquid extraction processes not suitable for the removal of aliphatic S-compounds due to the high volume of extractant required. This work explores alternative methods and proposes the use of ionic liquids in a separation process assisted by membranes. In the process proposed the ionic liquid is used as extracting solvent of the sulfur species, in a hollow fiber membrane contactor, without co-extracting the other jet-fuel compound. In a second contactor, the ionic liquid is regenerated applying a sweep gas stripping, which allows for its reuse in a closed loop between the two membrane contactors. This integrated extraction/regeneration process of desulfurization produced a jet-fuel model with sulfur content lower than 2 ppm of S, as envisaged by legislation for the use of ultra-low sulfur jet-fuel. This result confirms the high potential for development of ultra-deep desulfurization application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The increasing human activity has been responsible by profound changes and a constinuos degradation of the soil compartment in all the European territory. Some European policies are appearing focusing soil’s protection and the management of contaminated sites, in order to recover land for other uses. To regulate the risk assessment and the management of contaminated soils, many European member states adopted soil guideline values, as for example soil screnning values (SSV).These values are particularly useful for the the first tier of the Ecological Risk Assessment (ERA) processes of contaminated sites,especially for a first screening of sites requiring a more site-specific evaluation. Hence, the approriate definition of regional SSVs will have relevant economic impacts in the management of contaminated sites. Portugal is one of European Member States that still lack these soil guideline values. In this context, this study gaves a remarkable contribution in the generation of ecotoxicological data for soil microbiological parameters, terrestrial plants and invertebrates for the derivation of SSVs for uranium (U), cadmium (Cd) and copper (Cu), using a Portuguese natural soil, representative of a dominant type of soil in the Portuguese territory. SSVs were derived based on two methods proposed by the the Technical Guidance Document for Risk Assessment of the European Commission; namely the assessment factor method (AF) and the species sensitivity distribution (SSD) method (with some adaptations). The outputs of both methods were compared and discussed. Further, this study laid the foundation for a deeper reflection about the cut-off (hazard concentration for a given percentage of species - HCps) to be estimated from the SSDs, and to be selected for the derivation of SSVs, with the adequate level of protection. It was proven that this selection may vary for different contaminants, however a clear justification should be given, in each case. The SSvs proposed in this study were for: U (151.4 mg U kg-1dw), Cd (5.6 mg Cd kg-1dw), and Cu (58.5 mg Cu kg-1dw) These values should now be tested for their descriminating power of soils with different levels of contamination. However, this studies clarifies the approach that should be followed for the derivation of SSVs for other metals and organic contaminants, and for other dominant types of Portuguese natural soils.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis aims at improving the knowledge on the post-fire vegetation regeneration. For that, forests and shrublands were studied, after forest fires and experimental fires. Maritime Pine (Pinus pinaster) recruitment after fire was studied. Fire severity was evidenced as a major effect on this process. High crown fire severity can combust the pines, destroying the seed bank and impeding post fire pine recruitment. However, crown combustion also influences the post-fire conditions on the soil surface, since high crown combustion (HCC) will decrease the postfire needle cast. After low crown combustion (LCC) (scorched rather than torched crowns), a considerable needle cover was observed, along with a higher density of pine seedlings. The overall trends of post-fire recruitment among LCC and HCC areas could be significantly attributed to cover by needles, as well by the estimation of fire severity using the diameters of the burned twigs (TSI). Fire increased the germination from the soil seed bank of a Pinus pinaster forest, and the effects were also related with fire severity. The densities of seedlings of the dominant taxa (genus Erica and Calluna vulgaris) were contrastingly affected in relation to the unburned situation, depending on fire severity, as estimated from the degree of fire-induced crown damage (LCC/HCC), as well as using a severity index based on the diameters of remaining twigs (TSI). Low severity patches had an increase in germination density relatively to the control, while high severity patches suffered a reduction. After an experimental fire in a heathland dominated by Pterospartum tridentatum, Erica australis and E. umbellata, no net differences in seedling emergence were observed, in relation to the pre-fire situation. However, rather than having no effect, the heterogeneity of temperatures caused by fire promoted caused divergent effects over the burned plot in terms of Erica australis germination – a progressive increased was observed in the plots were maximum temperature recorded ranged from 29 to 42.5ºC and decreased in plots with maximum temperature ranging from 51.5 to 74.5ºC. In this heathland, the seed density of two of the main species (E. australis and E. umbellata) was higher under their canopies, but the same was not true for P. tridentatum. The understory regeneration in pine and eucalypt stands, 5 to 6 years post fire, has been strongly associated with post-fire management practices. The effect of forest type was, comparatively, insignificant. Soil tilling, tree harvesting and shrub clearance, were linked to lower soil cover percentages. However, while all these management operations negatively affected the cover of resprouters, seeders were not affected by soil tilling. A strong influence of biogeographic region was identified, suggesting that more vulnerable regions may suffer higher effects of management, even under comparatively lower management pressure than more productive regions. This emphasizes the need to adequate post-fire management techniques to the target regions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work was focused on the analysis of transport, thermomechanical and electrochemical properties of a series of perovskite-like oxide materials and composites for potential applications as anodes of intermediate-temperature solid oxide fuel cells (SOFCs) with lanthanum gallate and silicate solid electrolytes. The primary attention was centered on A(Mn,Nb)O3-δ (A = Sr, Ca) and (La,Sr)(Mn,Ti)O3-based systems, lanthanum chromite substituted with acceptor-type and variable-valence cations, and various Ni-containing cermets. Emphasis was given to phase stability of the materials, their crystal structure, microstructure of porous electrode layers and dense ceramics, electronic conductivity, Seebeck coefficient, oxygen permeability, thermal and chemical induced expansion, and anodic overpotentials of the electrodes deposited onto (La,Sr)(Ga,Mg)O3- and La10(Si,Al)6O27- based electrolyte membranes. In selected cases, roles of oxygen diffusivity, states of the transition metal cations relevant for the electronic transport, catalytically active additives and doped ceria protective interlayers introduced in the model electrochemical cells were assessed. The correlations between transport properties of the electrode materials and electrochemical behavior of porous electrodes showed that the principal factors governing anode performance include, in particular, electronic conduction of the anode compositions and cation interdiffusion between the electrodes and solid electrolytes. The latter is critically important for the silicatebased electrolyte membranes, leading to substantially worse anode properties compared to the electrochemical cells with lanthanum gallate solid electrolyte. The results made it possible to select several anode compositions exhibiting lower area-specific electrode resistivity compared to known analogues, such as (La,Sr)(Cr,Mn)O3-δ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, communication environments are already characterized by a myriad of competing and complementary technologies that aim to provide an ubiquitous connectivity service. Next Generation Networks need to hide this heterogeneity by providing a new abstraction level, while simultaneously be aware of the underlying technologies to deliver richer service experiences to the end-user. Moreover, the increasing interest for group-based multimedia services followed by their ever growing resource demands and network dynamics, has been boosting the research towards more scalable and exible network control approaches. The work developed in this Thesis enables such abstraction and exploits the prevailing heterogeneity in favor of a context-aware network management and adaptation. In this scope, we introduce a novel hierarchical control framework with self-management capabilities that enables the concept of Abstract Multiparty Trees (AMTs) to ease the control of multiparty content distribution throughout heterogeneous networks. A thorough evaluation of the proposed multiparty transport control framework was performed in the scope of this Thesis, assessing its bene ts in terms of network selection, delivery tree recon guration and resource savings. Moreover, we developed an analytical study to highlight the scalability of the AMT concept as well as its exibility in large scale networks and group sizes. To prove the feasibility and easy deployment characteristic of the proposed control framework, we implemented a proof-of-concept demonstrator that comprehends the main control procedures conceptually introduced. Its outcomes highlight a good performance of the multiparty content distribution tree control, including its local and global recon guration. In order to endow the AMT concept with the ability to guarantee the best service experience by the end-user, we integrate in the control framework two additional QoE enhancement approaches. The rst employs the concept of Network Coding to improve the robustness of the multiparty content delivery, aiming at mitigating the impact of possible packet losses in the end-user service perception. The second approach relies on a machine learning scheme to autonomously determine at each node the expected QoE towards a certain destination. This knowledge is then used by di erent QoE-aware network management schemes that, jointly, maximize the overall users' QoE. The performance and scalability of the control procedures developed, aided by the context and QoE-aware mechanisms, show the advantages of the AMT concept and the proposed hierarchical control strategy for the multiparty content distribution with enhanced service experience. Moreover we also prove the feasibility of the solution in a practical environment, and provide future research directions that bene t the evolved control framework and make it commercially feasible.