15 resultados para Método de elemento finito
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
Esta tese dedica-se ao estudo de hipermapas regulares bicontactuais, hipermapas com a propriedade que cada hiperface contacta só com outras duas hiperfaces. Nos anos 70, S. Wilson classificou os mapas bicontactuais e, em 2003, Wilson e Breda d’Azevedo classificaram os hipermapas bicontactuais no caso não-orientável. Quando esta propriedade é transferida para hipermapas origina três tipos de bicontactualidade, atendendo ao modo como as duas hiperfaces aparecem à volta de uma hiperface fixa: edge-twin, vertextwin and alternate (dois deles são o dual um do outro). Um hipermapa topológico é um mergulho celular de um grafo conexo trivalente numa superfície compacta e conexa tal que as células são 3-coloridas. Ou de maneira mais simples, um hipermapa pode ser visto como um mapa bipartido. Um hipermapa orientado regular é um triplo ordenado consistindo num conjunto finito e dois geradores, que são permutações (involuções) do conjunto tal que o grupo gerado por eles, chamado o grupo de monodromia, actua regularmente no conjunto. Nesta tese, damos uma classificação de todos os hipermapas orientados regulares bicontactuais e, para completar, reclassificamos, usando o nosso método algébrico, os hipermapas não-orientáveis bicontactuais.
Resumo:
Neste trabalho privilegiam-se as técnicas ópticas, nomeadamente a fotoluminescência a transmissão, a reflexão e a difusão de Raman na caracterização de defeitos e impurezas em cristais e heterostruturas de CdTe/GaAs. No primeiro capítulo efectua-se uma revisão sucinta das propriedades dos compostos II-VI e são colocados os problemas a investigar. O segundo capítulo é dedicado a alguns aspectos teóricos relevantes para a análise dos resultados obtidos nos capítulos quatro a nove. O equipamento utilizado e as experiências realizadas são descritas no terceiro capítulo. A caracterização por espectroscopia de luminescência do tipo de transições e dos defeitos envolvidos nas amostras de fábrica é efectuada com detalhe no quarto capítulo. Neste capítulo são analisadas ainda as emissões devidas a desvios estequiométricos causados pelo recozimento com excesso e defeito de Cd. No capítulo cinco são estudadas por fotoluminescência amostras dopadas intencionalmente com oxigénio por difusão e mostra-se que este elemento se comporta como trapa isoelectrónica no CdTe tal como acontece no ZnTe. Neste capítulo são estudadas também amostras dopadas com ferro pelo mesmo método e são apresentadas as dificuldades em colocar este dopante em sítios substitucionais, nomeadamente no sítio do Cd. No sexto capítulo é estudada a região 1.4 eV, evidenciando o seu comportamento em função da temperatura e da potência de excitação, o seu perfil e a interacção electrãorede. No sétimo capítulo mostra-se que a técnica micro-Raman com luz visível coerente não permite extrair conclusões fiáveis acerca das inclusões de Te na superfície do CdTe, uma vez que a radiação ao ser focada nas amostras, induz a formação de aglomerados nos quais o Te é o elemento dominante. Neste capítulo calcula-se também a concentração de portadores livres através da interacção do plasmão com o fonão óptico longitudinal. O oitavo capítulo é dedicado ao estudo de camadas de CdTe/GaAs com diferentes espessuras nomeadamente na análise da distribuição das deslocações e da deformação na superfície em função da espessura. Os resultados obtidos são comparados através da largura a meia altura das curvas de DCXRD (“Double Crystal X Ray Diffraction”) e dos espectros de reflectância. Por fotoluminescência, são caracterizados os defeitos introduzidos durante o crescimento, são utilizados e desenvolvidos modelos complementares na distinção do tipo de transições ópticas obtidas. No nono capítulo, por espectroscopia de absorção e de reflexão em cristais de CdTe e em camadas de CdTe/GaAs na região reststrahlen são determinadas as frequências dos modos ópticos longitudinal e transversal com bastante precisão. Os resultados obtidos — pelas relações de dispersão de Kramers- Kronig — são simulados pelo modelo do oscilador harmónico classico, mostrando que ambos os métodos descrevem de forma semelhante o comportamento do CdTe nessa região sendo possível determinar as frequências ópticas transversal e longitudinal, as constantes dieléctrica óptica e estática e os coeficientes de amortecimento e de Szigeti. Nas heterostruturas e nas camadas mais espessas determina-se também a concentração de portadores de carga n. No décimo capítulo resumem-se as conclusões do trabalho e são abordados aspectos relacionados com desenvolvimentos possíveis de futuros trabalhos.
Resumo:
Nesta tese investigam-se e desenvolvem-se dispositivos para processamento integralmente óptico em redes com multiplexagem densa por divisão no comprimento de onda (DWDM). O principal objectivo das redes DWDM é transportar e distribuir um espectro óptico densamente multiplexado com sinais de débito binário ultra elevado, ao longo de centenas ou milhares de quilómetros de fibra óptica. Estes sinais devem ser transportados e encaminhados no domínio óptico de forma transparente, sem conversões óptico-eléctrico-ópticas (OEO), evitando as suas limitações e custos. A tecnologia baseada em amplificadores ópticos de semicondutor (SOA) é promissora graças aos seus efeitos não-lineares ultra-rápidos e eficientes, ao potencial para integração, reduzido consumo de potência e custos. Conversores de comprimento de onda são o elemento óptico básico para aumentar a capacidade da rede e evitar o bloqueio de comprimentos de onda. Neste trabalho, são estudados e analisados experimentalmente métodos para aumentar a largura de banda operacional de conversores de modulação cruzada de ganho (XGM), a fim de permitir a operação do SOA para além das suas limitações físicas. Conversão de um comprimento de onda, e conversão simultânea de múltiplos comprimentos de onda são testadas, usando interferómetros de Mach-Zehnder com SOA. As redes DWDM de alto débito binário requerem formatos de modulação optimizados, com elevada tolerância aos efeitos nefastos da fibra, e reduzida ocupação espectral. Para esse efeito, é vital desenvolver conversores integramente ópticos de formatos de modulação, a fim de permitir a interligação entre as redes já instaladas, que operam com modulação de intensidade, e as redes modernas, que utilizam formatos de modulação avançados. No âmbito deste trabalho é proposto um conversor integralmente óptico de formato entre modulação óptica de banda lateral dupla e modulação óptica de banda lateral residual; este é caracterizado através de simulação e experimentalmente. Adicionalmente, é proposto um conversor para formato de portadora suprimida, através de XGM e modulação cruzada de fase. A interligação entre as redes de transporte com débito binário ultra-elevado e as redes de acesso com débito binário reduzido requer conversão óptica de formato de impulso entre retorno-a-zero (RZ) e não-RZ. São aqui propostas e investigadas duas estruturas distintas: uma baseada em filtragem desalinhada do sinal convertido por XGM; uma segunda utiliza as dinâmicas do laser interno de um SOA com ganho limitado (GC-SOA). Regeneração integralmente óptica é essencial para reduzir os custos das redes. Dois esquemas distintos são utilizados para regeneração: uma estrutura baseada em MZI-SOA, e um método no qual o laser interno de um GC-SOA é modulado com o sinal distorcido a regenerar. A maioria dos esquemas referidos é testada experimentalmente a 40 Gb/s, com potencial para aplicação a débitos binários superiores, demonstrado que os SOA são uma tecnologia basilar para as redes ópticas do futuro.
Resumo:
Este trabalho consiste numa proposta metodológica, denominada A∴418, que visa abordar a actividade especulativa dos performers no que diz respeito às suas concepções interpretativas dos discursos musicais. Foram identificados dois factores inerentes a esta actividade – as concepções expressiva e técnica – como estando na base da configuração final deste processo. O A∴418 resulta de um processo de aplicação de técnicas de análise musical vocacionadas para o estudo da interpretação musical, são elas a Análise da Intenção Musical Interpretativa (direccionada para a concepção expressiva da narrativa sonora) e a Análise Técnica da Intenção Musical Interpretativa (direccionada para a concepção técnico-instrumental do discurso musical). A sistematização deste processo metodológico conduz à produção de uma partitura final, revista pelo músico-instrumentista, na qual acrescem ao discurso original do compositor indicações que reflectem a concepção técnicoexpressiva produzida pelo performer que interpreta a obra musical. Esta metodologia foi demonstrada através da sua aplicação à concepção musical interpretativa do Concerto para Violoncelo em La menor, RV 418, de Antonio Vivaldi, tendo em conta as demandas específicas deste instrumento musical e a leitura idiossincrática que o autor fez desta obra musical em concreto.
Resumo:
O presente trabalho apresenta um levantamento de processos transcricionais usados por músicos, desde compositores do período barroco até músicos contemporâneos. Este conjunto de técnicas permite encontrar alternativas às eventuais problemáticas levantadas durante a transcrição e simultaneamente, processos para manter inalterada a significação proposta pelo compositor. Seguidamente, apresenta-se um conjunto de obras transcritas com apoio nas técnicas anteriormente observadas.
Resumo:
Tomando como ponto de partida a relação entre música e matemática, nesta investigação temos como principal objetivo estudar a influência da aprendizagem musical no desempenho matemático. Pretendeu-se ainda observar o efeito de um conjunto de preditores no referido desempenho, mais concretamente do nível socioeconómico, da inteligência e de variáveis cognitivo-motivacionais (motivação, expectativas de autoeficácia e atribuições causais). Numa primeira parte, delineámos as linhas teóricas desta investigação. Começámos por relatar a relação entre música e matemática no âmbito da musicologia histórica, da teoria e análise musicais, da acústica e das tendências na composição musical, evidenciando os mecanismos de ligação entre elementos e conceitos musicais e tópicos e temas matemáticos. Relatámos os benefícios da exposição musical ao nível do desenvolvimento cognitivo e intelectual, destacando o aumento do raciocínio espacial, do desempenho matemático e da inteligência com a aprendizagem musical. De seguida, descrevemos o impacto das aulas de música no aumento do desempenho académico a várias disciplinas, nomeadamente a Matemática, enfatizando a associação da duração da aprendizagem musical com o aumento das capacidades matemáticas; para além do efeito da aprendizagem musical, procurámos ainda explicação de um desempenho académico melhorado com base em variáveis potenciadoras da performance, tais como o nível socioeconómico e a inteligência. Nesta linha de abordagem, explorámos os efeitos de variáveis influentes do desempenho académico fora do contexto musical, reportando-nos ao nível socioeconómico, à inteligência e às dimensões cognitivo-motivacionais (motivação, expectativas de autoeficácia e atribuições causais), destacando o poder preditivo da inteligência, seguido do nível socioeconómico e da motivação. Por fim, referimo-nos à interação entre música e encéfalo por meio das temáticas da plasticidade neural estrutural e funcional, do efeito da aprendizagem e performance musicais, da cognição musical e domínios não musicais, bem como dos fatores genéticos; sublinhamos a possibilidade de ligações entre a cognição musical e os domínios espacial e matemático. Numa segunda parte, apresentamos a investigação que desenvolvemos em contexto escolar com 112 alunos do 7º ano de escolaridade provenientes de 12 escolas do Ensino Básico. Nove são do Ensino Especializado de Música e três são do Ensino Regular. No total, as escolas enquadram-se nas zonas urbanas de Braga, Coimbra e Lisboa. O estudo possui carácter longitudinal e abrange três anos letivos, do 7º ao 9º anos de escolaridade. Após explanação dos objetivos, das hipóteses de investigação, da caracterização da amostra, da descrição dos instrumentos de avaliação e respetiva validação empírica, relatamos os resultados que encontrámos. Estes permitiram, por um lado, validar a hipótese de que os alunos submetidos ao ensino formal de música apresentam um desempenho matemático superior comparativamente aos alunos que não frequentaram este tipo de ensino (H1) e, por outro, sustentar que o número de anos de aprendizagem musical contribui para o aumento do desempenho matemático (H3). Sublinha-se, ainda, que os alunos de instrumento de teclado revelaram desempenho matemático mais elevado em relação aos seus pares que estudaram outros instrumentos. Já no que se refere ao poder preditivo do tipo de ensino (Ensino Especializado de Música vs. Ensino Regular), apurámos que a formação em música prevê melhores desempenhos a matemática; destaca-se que as variáveis em estudo, tais como o nível socioeconómico, a motivação, as expectativas de autoeficácia e a inteligência adicionam capacidade explicativa do desempenho matemático, sendo que a presença da aprendizagem musical perdeu aptidão preditiva apenas na presença da inteligência. Contudo, após controlo estatístico da inteligência, foi possível concluir que a aprendizagem musical mantém o poder preditivo no desempenho matemático (H2). Os resultados permitiram identificar em que tópicos e temas matemáticos relacionados com os elementos e conceitos musicais os alunos com aprendizagem musical apresentam melhores desempenhos, evidenciando-se os tópicos no âmbito da Geometria (H4). Observámos, também, que é possível prever o desempenho matemático a partir do raciocínio espacial dos alunos (H5). Finalmente, referimos as limitações, refletimos sobre as implicações que estes resultados poderão trazer no âmbito do ensino da música em Portugal e apontamos pistas conducentes ao desenvolvimento de investigações futuras.
Resumo:
This investigation focused on the development, test and validation of methodologies for mercury fractionation and speciation in soil and sediment. After an exhaustive review of the literature, several methods were chosen and tested in well characterised soil and sediment samples. Sequential extraction procedures that divide mercury fractions according to their mobility and potential availability in the environment were investigated. The efficiency of different solvents for fractionation of mercury was evaluated, as well as the adequacy of different analytical instruments for quantification of mercury in the extracts. Kinetic experiments to establish the equilibrium time for mercury release from soil or sediment were also performed. It was found that in the studied areas, only a very small percentage of mercury is present as mobile species and that mobility is associated to higher aluminium and manganese contents, and that high contents of organic matter and sulfur result in mercury tightly bound to the matrix. Sandy soils tend to release mercury faster that clayey soils, and therefore, texture of soil or sediment has a strong influence on the mobility of mercury. It was also understood that analytical techniques for quantification of mercury need to be further developed, with lower quantification limits, particularly for mercury quantification of less concentrated fractions: water-soluble e exchangeable. Although the results provided a better understanding of the distribution of mercury in the sample, the complexity of the procedure limits its applicability and robustness. A proficiency-testing scheme targeting total mercury determination in soil, sediment, fish and human hair was organised in order to evaluate the consistency of results obtained by different laboratories, applying their routine methods to the same test samples. Additionally, single extractions by 1 mol L-1 ammonium acetate solution, 0.1 mol L-1 HCl and 0.1 mol L-1 CaCl2, as well as extraction of the organometallic fraction were proposed for soil; the last was also suggested for sediment and fish. This study was important to update the knowledge on analytical techniques that are being used for mercury quantification, the associated problems and sources of error, and to improve and standardize mercury extraction techniques, as well as to implement effective strategies for quality control in mercury determination. A different, “non chemical-like” method for mercury species identification was developed, optimised and validated, based on the thermo-desorption of the different mercury species. Compared to conventional extraction procedures, this method has advantages: it requires little to no sample treatment; a complete identification of species present is obtained in less than two hours; mercury losses are almost neglectable; can be considered “clean”, as no residues are produced; the worldwide comparison of results obtained is easier and reliable, an important step towards the validation of the method. Therefore, the main deliverables of this PhD thesis are an improved knowledge on analytical procedures for identification and quantification of mercury species in soils and sediments, as well as a better understanding of the factors controlling the behaviour of mercury in these matrices.
Resumo:
The work presented in this Ph.D thesis was developed in the context of complex network theory, from a statistical physics standpoint. We examine two distinct problems in this research field, taking a special interest in their respective critical properties. In both cases, the emergence of criticality is driven by a local optimization dynamics. Firstly, a recently introduced class of percolation problems that attracted a significant amount of attention from the scientific community, and was quickly followed up by an abundance of other works. Percolation transitions were believed to be continuous, until, recently, an 'explosive' percolation problem was reported to undergo a discontinuous transition, in [93]. The system's evolution is driven by a metropolis-like algorithm, apparently producing a discontinuous jump on the giant component's size at the percolation threshold. This finding was subsequently supported by number of other experimental studies [96, 97, 98, 99, 100, 101]. However, in [1] we have proved that the explosive percolation transition is actually continuous. The discontinuity which was observed in the evolution of the giant component's relative size is explained by the unusual smallness of the corresponding critical exponent, combined with the finiteness of the systems considered in experiments. Therefore, the size of the jump vanishes as the system's size goes to infinity. Additionally, we provide the complete theoretical description of the critical properties for a generalized version of the explosive percolation model [2], as well as a method [3] for a precise calculation of percolation's critical properties from numerical data (useful when exact results are not available). Secondly, we study a network flow optimization model, where the dynamics consists of consecutive mergings and splittings of currents flowing in the network. The current conservation constraint does not impose any particular criterion for the split of current among channels outgoing nodes, allowing us to introduce an asymmetrical rule, observed in several real systems. We solved analytically the dynamic equations describing this model in the high and low current regimes. The solutions found are compared with numerical results, for the two regimes, showing an excellent agreement. Surprisingly, in the low current regime, this model exhibits some features usually associated with continuous phase transitions.
Resumo:
Identity achievement is related to personality, as well as cognitive and interpersonal development. In tandem with the deep structural changes that have taken place in society, education must also shift towards a teaching approach focused on learning and the overall development of the student. The integration of technology may be the drive to foster the needed changes. We draw on the literature of multiple subject areas as basis for our work, namely: identity construction and self-representation, within a psychological and social standpoint; Higher Education (HE) in Portugal after Bologna, college student development and other intrinsic relationships, namely the role of emotions and interpersonal relationships in the learning process; the technological evolution of storytelling towards Digital Storytelling (DS) – the Californian model – and its connections to identity and education. Ultimately we propose DS as the aggregator capable of humanizing HE while developing essential skills and competences. Grounded on an interpretative/constructivist paradigm, we implemented a qualitative case study to explore DS in HE. In three attempts to collect student data, we gathered detailed observation notes from two Story Circles; twelve student written reflections; fourteen Digital Stories and detailed observation notes from one Story Show. We carried out three focus groups with teachers where we discussed their perceptions of each student prior to and after watching the Digital Stories, in addition to their opinion on DS in HE as a teaching and learning method and its influence on interpersonal relationships. We sought understandings of the integration of DS to analyze student selfperception and self-representation in HE contexts and intersected our findings with teachers’ perceptions of their students. We compared teachers’ and students’ perspectives, through the analysis of data collected throughout the DS process – Story Circle, Story Creation and Story Show – and triangulated that information with the students’ personal reflections and teacher perceptions. Finally we questioned if and how DS may influence teachers’ perceptions of students. We found participants to be the ultimate gatekeepers in our study. Very few students and teachers voluntarily came forth to take part in the study, confirming the challenge remains in getting participants to see the value and understand the academic rigor of DS. Despite this reluctance, DS proved to be an asset for teachers and students directly and indirectly involved in the study. DS challenges HE contexts, namely teacher established perception of students; student’s own expectations regarding learning in HE; the emotional realm, the private vs. public dichotomy and the shift in educational roles.
Resumo:
Desde que surgiu há mais de 50 anos, a televisão sofreu muitas transformações, tanto ao nível tecnológico (por exemplo com a passagem da emissão a preto/branco para cor, o som analógico para digital, a difusão digital) como a nível da sua influência nas sociedades. Entre outros fatores de ordem tecnológica, a consolidação da Internet com o seu elevado nível de personalização, da experiência de utilização, e a sua enorme quantidade de conteúdos disponíveis, catapultou a televisão no sentido de esta se tornar mais interativa. Assim, o telespectador passou a poder usufruir de uma experiência televisiva que pode, por um lado, ser mais participativa, sendo-lhe possível, por exemplo, alvitrar sobre a qualidade de um programa enquanto assiste à sua exibição, e, por outro, ser mais personalizada, possibilitando-lhe, por exemplo, receber conteúdos automaticamente adequados ao seu perfil e contexto. No entanto, esta experiência mais participativa e personalizável carece de uma identificação, idealmente automática e não intrusiva, de quem pode beneficiar da mesma – o telespectador. Contudo, e apesar de significativos avanços na área da televisão interativa, tanto ao nível da infraestrutura de suporte como ao nível dos serviços disponibilizados, a identificação dos utilizadores é, ainda, uma área de estudo com muitos aspetos por compreender. Os seniores, em particular, são grandes consumidores de televisão e representam uma fatia muito considerável das pessoas que podem beneficiar das potencialidades disponibilizadas pela interatividade presente em muitos serviços atuais. Um número crescente destes serviços são desenhados com o objetivo de promoverem um envelhecimento ativo e um concreto apoio à vida, pelo que os seniores podem beneficiar, em vários aspetos do seu quotidiano, se os utilizarem. Nesta faixa etária, a identificação de utilizadores tem, como elemento potenciador da experiência de utilização, um papel especialmente importante ao nível de um aproveitamento personalizado e dirigido destes serviços. No entanto, atendendo às diferentes combinações de características físicas, sensoriais, cognitivas e, mesmo, de literacia digital que tipificam os seniores, perspetivou-se existir uma dependência do perfil do utilizador na seleção do método de identificação mais adequado, os quais podem ser baseados, por exemplo, num leitor de impressões digitais, instalado no telecomando; na leitura de uma wearable tag ou de um cartão RFiD; no reconhecimento da face e, eventualmente, na voz do utilizador. Assim, a inerente investigação desenrolou-se em várias fases, no sentido de permitir alicerçar a construção de uma matriz de decisão tecnológica que, em função do perfil de utilizador, selecione o sistema de identificação mais adequado. O procedimento metodológico inerente à construção desta matriz de decisão, passou por um longo processo envolvendo utilizadores reais, que se iniciou com a realização de entrevistas exploratórias com o objetivo de permitir conhecer melhor os seniores e a forma como estes encaram a tecnologia e, mais concretamente, a televisão interativa. Foi depois implementado um protótipo de alta-fidelidade, completamente funcional, para a realização de testes com o objetivo de perceber qual a preferência relativamente a um subconjunto de tecnologias de identificação. Estes testes, uma vez que não permitiram testar todas as tecnologias em estudo, revelaram-se inconclusivos, porém permitiram reforçar a necessidade de identificar e caracterizar os referidos aspetos do perfil do utilizador que podem interferir na sua preferência relativamente ao sistema de identificação. As características identificadas constituíram-se como os parâmetros de entrada da matriz, sendo que para preencher as respetivas células realizaramse testes de aceitação, com um conjunto de seniores, tendo por base um protótipo, wizard of oz, especificamente implementado para permitir experienciar todas as tecnologias em estudo. Estes testes foram precedidos pela avaliação das capacidades funcionais dos participantes, nos diversos parâmetros definidos. Este texto relata, assim, todo o processo de investigação que foi conduzido, terminando com uma descrição de exemplos de utilização da matriz de decisão implementada e com a identificação de potenciais caminhos de desenvolvimento deste trabalho.
Resumo:
Para o ser humano, a água sempre foi um recurso essencial ao longo da sua evolução. Hoje em dia, com todo o avanço tecnológico, a água é um bem muito vulnerável às diversas atividades antropogénicas. Entre os muitos contaminantes que podem afetar a qualidade da água para consumo humano, os metais causam grande preocupação devido à sua elevada toxicidade. O mercúrio é um dos contaminantes que deve ser devidamente controlado devido ao seu elevado grau de toxicidade. Este Estágio foi realizado no Laboratório Luságua e o seu principal objetivo foi avaliar se era possível baixar o limite de quantificação da técnica existente na empresa para quantificar o mercúrio em águas de consumo e validar o método através do cálculo de vários parâmetros de controlo de qualidade. Foi ainda feita a comparação entre a técnica de quantificação de mercúrio existente na Luságua (CV-AAS) e a existente na Universidade de Aveiro (CVAFS) para avaliar se havia uma mais-valia para a Luságua se adquirisse um novo equipamento para analisar o mercúrio em águas. Os parâmetros de validação avaliados nos dois métodos derem resultados semelhantes, não identificando a necessidade atual de substituir o equipamento existente na Luságua, até porque se conseguiu baixar o limite de quantificação, atingindo assim o objetivo estabelecido no início para este Estágio.
Resumo:
The present work deals with the development of robust numerical tools for Isogeometric Analysis suitable for problems of solid mechanics in the nonlinear regime. To that end, a new solid-shell element, based on the Assumed Natural Strain method, is proposed for the analysis of thin shell-like structures. The formulation is extensively validated using a set of well-known benchmark problems available in the literature, in both linear and nonlinear (geometric and material) regimes. It is also proposed an alternative formulation which is focused on the alleviation of the volumetric locking pathology in linear elastic problems. In addition, an introductory study in the field of contact mechanics, in the context of Isogeometric Analysis, is also presented, with special focus on the implementation of a the Point-to-Segment algorithm. All the methodologies presented in the current work were implemented in a in-house code, together with several pre- and post-processing tools. In addition, user subroutines for the commercial software Abaqus were also implemented.
Resumo:
A investigação sobre a promoção do questionamento na relação pedagógica revela ser uma estratégia que valoriza o papel do aluno enquanto aquele que aprende, alterando a forma como as aulas são vividas por alunos e professores. Perante a inexistência de estudos que ensaiem o estímulo ao questionamento e, simultaneamente, integrem a Web 2.0 no processo de ensino e de aprendizagem no Ensino Básico, delineou-se a presente investigação. O estudo situa-se, assim, na interseção de dois campos: por um lado, as potencialidades do incentivo ao questionamento no processo pedagógico e, por outro, a integração educativa das TIC. A questão de Investigação que orientou este estudo foi a de avaliar de que forma é que o incentivo ao questionamento poderia contribuir para integrar o blogue de disciplina no trabalho em sala de aula de Ciências Naturais. Assim, concebemos, implementámos e avaliámos uma intervenção didática centrada na promoção da competência de questionamento, dando voz aos alunos, estimulando-os a formularem perguntas sobre os conteúdos, tanto presencialmente como no blogue da disciplina, denominado por “Mentes Curiosas”, utilizando essas perguntas como elementos integradores dos dois espaços. O estudo seguiu uma metodologia de investigação-ação e envolveu 36 alunos do 9.º ano de escolaridade, divididos em duas turmas, na disciplina de Ciências Naturais. Os instrumentos e métodos de recolha de dados foram diversificados, tendo todos os dados sido submetidos a uma análise de conteúdo. O estudo revela que os alunos utilizaram o blogue respondendo aos desafios colocados escrevendo comentários, respostas e, sobretudo, fazendo perguntas para as quais gostariam de obter respostas. O docente integrou essas perguntas na prática letiva dando continuidade às discussões de um ambiente para o outro, utilizando, desta forma, as perguntas dos alunos para a integração dos dois ambientes. A análise do questionamento registado revela que as perguntas online estão mais centradas nos conteúdos científicos e apresentam maior qualidade cognitiva quando comparadas com as formuladas em sala de aula. Por sua vez, no contexto presencial, as perguntas escritas são de maior nível de complexidade do que as perguntas orais. Através das diversas estratégias implementadas, quer para a promoção da capacidade de escrever perguntas, quer no trabalho realizado com o blogue, transformou-se a dinâmica do trabalho em sala de aula, melhorando-se o empenhamento dos alunos na aprendizagem. A estratégia de incentivo ao questionamento pelos alunos revelou-se, assim, como um fator que permite integrar de forma profícua o ambiente online no ambiente presencial neste nível de ensino. Por fim, a reflexão que fomos fazendo sobre as potencialidades do questionamento na relação professor-alunos-conteúdos, tanto no ambiente presencial como no virtual, levou-nos a perspetivar as perguntas segundo duas dimensões: Competência Cognitiva e Estratégia Didática. Enquanto Competência, o questionamento assume a função de ferramenta cognitiva e de regulador do processo de ensino e de aprendizagem. Enquanto Estratégia, a pergunta pode ser encarada como uma ferramenta didática na relação dialógica que se estabelece entre professor e alunos.
Resumo:
Bioorganic ferroelectrics and piezoelectrics are becoming increasingly important in view of their intrinsic compatibility with biological environment and biofunctionality combined with strong piezoelectric effect and switchable polarization at room temperature. Here we study piezoelectricity and ferroelectricity in the smallest amino acid glycine, representing a broad class of non-centrosymmetric amino acids. Glycine is one of the basic and important elements in biology, as it serves as a building block for proteins. Three polymorphic forms with different physical properties are possible in glycine (α, β and γ), Of special interest for various applications are non-centrosymmetric polymorphs: β-glycine and γ-glycine. The most useful β-polymorph being ferroelectric took much less attention than the other due to its instability under ambient conditions. In this work, we could grow stable microcrystals of β-glycine by the evaporation of aqueous solution on a (111)Pt/Ti/SiO2/Si substrate as a template. The effects of the solution concentration and Pt-assisted nucleation on the crystal growth and phase evolution were characterized by X-ray diffraction analysis and Raman spectroscopy. In addition, spin-coating technique was used for the fabrication of highly aligned nano-islands of β-glycine with regular orientation of the crystallographic axes relative the underlying substrate (Pt). Further we study both as-grown and tip-induced domain structures and polarization switching in the β-glycine molecular systems by Piezoresponse Force Microscopy (PFM) and compare the results with molecular modeling and computer simulations. We show that β-glycine is indeed a room-temperature ferroelectric and polarization can be switched by applying a bias to non-polar cuts via a conducting tip of atomic force microscope (AFM). Dynamics of these in-plane domains is studied as a function of applied voltage and pulse duration. The domain shape is dictated by both internal and external polarization screening mediated by defects and topographic features. Thermodynamic theory is applied to explain the domain propagation induced by the AFM tip. Our findings suggest that β-glycine is a uniaxial ferroelectric with the properties controlled by the charged domain walls which in turn can be manipulated by external bias. Besides, nonlinear optical properties of β-glycine were investigated by a second harmonic generation (SHG) method. SHG method confirmed that the 2-fold symmetry is preserved in as-grown crystals, thus reflecting the expected P21 symmetry of the β-phase. Spontaneous polarization direction is found to be parallel to the monoclinic [010] axis and directed along the crystal length. These data are confirmed by computational molecular modeling. Optical measurements revealed also relatively high values of the nonlinear optical susceptibility (50% greater than in the z-cut quartz). The potential of using stable β-glycine crystals in various applications are discussed in this work.