910 resultados para Falhas (Geologia)
Resumo:
A ilha de Santiago, Cabo Verde é uma ilha de origem vulcânica, constituída basicamente por lavas e piroclastos, localizada no Oceano Atlântico ao lado da costa ocidental de África. A ilha é caracterizada por três unidades hidrogeológicas, sendo estas a Formação de Base (semi-confinada), a Formação Intermédia (freática) e a Formação Recente (freática), que apresentam características geológicas e comportamentos hidráulicos que as diferenciam, recebendo recarga directa e/ ou diferida por infiltração das águas de chuva e descarregam ao mar, na rede hidrográfica ou, ainda, em outros níveis aquíferos subjacentes, desde que induzidos por gradientes hidráulicos favoráveis. O clima de Santiago é árido a semi-árido, com precipitações muito escassas e irregulares, condicionadas na sua distribuição pela altitude, ventos e orientação das vertentes, dando por vezes origem a períodos de seca prolongados. Em anos de ‘boa’ chuva, as precipitações propiciam a existência temporária de recursos hídricos superficiais e a recarga dos recursos de água subterrânea. Foi realizado um estudo hidrogeoquímico detalhado da ilha que incluiu a recolha de amostras em 133 pontos de água, entre furos, poços e nascentes. A composição química das águas analisadas na ilha de Santiago apresenta significativas variações em função da geologia e do tempo de residência. Na ausência de episódios de contaminação, as águas subterrâneas têm uma composição do tipo bicarbonatada-sódica (HCO3-Na) nas zonas mais altas da ilha, onde afloram as formações da Unidade Aquífera Intermédia. Nas zonas mais próximas da costa ocorrem águas de composição cloretada-magnesiana (Cl-Mg) ou cloretada-sódica (Cl-Na). Estas últimas predominam nas partes terminais das ribeiras, onde afloram materiais de elevada permeabilidade, e o excesso de bombagem para irrigação tem conduzido a um avanço da cunha de intrusão marinha. A ocorrência da fácies Cl-Na é neste caso o resultado de processos de intercâmbio catiónico que ocorrem durante o processo de intrusão e é concordante com os elevados teores de cloretos e de condutividade eléctrica observados. Os resultados das análises de isótopos estáveis de oxigénio-18 e deutério, realizadas em amostras recolhidas a distintas altitudes, revelam um gradiente negativo com a altitude, que já tinha sido verificado em outras ilhas com declives acentuados, permitindo assim determinar altitudes de recarga de água subterrânea. Os estudos hidrogeoquímicos até agora realizados permitiram caracterizar os principais níveis aquíferos da ilha de Santiago, colocando em evidência a limitada recarga do aquífero e o risco de gradual degradação dos recursos de água subterrânea por fenómenos de intrusão salina e contaminação agrícola. Estes resultados revelam a importância da gestão integrada da qualidade e quantidade dos parcos recursos de água subterrânea na ilha de Santiago.
Resumo:
Os Sistemas Embarcados Distribuídos (SEDs) estão, hoje em dia, muito difundidos em vastas áreas, desde a automação industrial, a automóveis, aviões, até à distribuição de energia e protecção do meio ambiente. Estes sistemas são, essencialmente, caracterizados pela integração distribuída de aplicações embarcadas, autónomas mas cooperantes, explorando potenciais vantagens em termos de modularidade, facilidade de manutenção, custos de instalação, tolerância a falhas, entre outros. Contudo, o ambiente operacional onde se inserem estes tipos de sistemas pode impor restrições temporais rigorosas, exigindo que o sistema de comunicação subjacente consiga transmitir mensagens com garantias temporais. Contudo, os SEDs apresentam uma crescente complexidade, uma vez que integram subsistemas cada vez mais heterogéneos, quer ao nível do tráfego gerado, quer dos seus requisitos temporais. Em particular, estes subsistemas operam de forma esporádica, isto é, suportam mudanças operacionais de acordo com estímulos exteriores. Estes subsistemas também se reconfiguram dinamicamente de acordo com a actualização dos seus requisitos e, ainda, têm lidar com um número variável de solicitações de outros subsistemas. Assim sendo, o nível de utilização de recursos pode variar e, desta forma, as políticas de alocação estática tornam-se muito ineficientes. Consequentemente, é necessário um sistema de comunicação capaz de suportar com eficácia reconfigurações e adaptações dinâmicas. A tecnologia Ethernet comutada tem vindo a emergir como uma solução sólida para fornecer comunicações de tempo-real no âmbito dos SEDs, como comprovado pelo número de protocolos de tempo-real que foram desenvolvidos na última década. No entanto, nenhum dos protocolos existentes reúne as características necessárias para fornecer uma eficiente utilização da largura de banda e, simultaneamente, para respeitar os requisitos impostos pelos SEDs. Nomeadamente, a capacidade para controlar e policiar tráfego de forma robusta, conjugada com suporte à reconfiguração e adaptação dinâmica, não comprometendo as garantias de tempo-real. Esta dissertação defende a tese de que, pelo melhoramento dos comutadores Ethernet para disponibilizarem mecanismos de reconfiguração e isolamento de tráfego, é possível suportar aplicações de tempo-real críticas, que são adaptáveis ao ambiente onde estão inseridas.Em particular, é mostrado que as técnicas de projecto, baseadas em componentes e apoiadas no escalonamento hierárquico de servidores de tráfego, podem ser integradas nos comutadores Ethernet para alcançar as propriedades desejadas. Como suporte, é fornecida, também, uma solução para instanciar uma hierarquia reconfigurável de servidores de tráfego dentro do comutador, bem como a análise adequada ao modelo de escalonamento. Esta última fornece um limite superior para o tempo de resposta que os pacotes podem sofrer dentro dos servidores de tráfego, com base unicamente no conhecimento de um dado servidor e na hierarquia actual, isto é, sem o conhecimento das especifidades do tráfego dentro dos outros servidores. Finalmente, no âmbito do projecto HaRTES foi construído um protótipo do comutador Ethernet, o qual é baseado no paradigma “Flexible Time-Triggered”, que permite uma junção flexível de uma fase síncrona para o tráfego controlado pelo comutador e uma fase assíncrona que implementa a estrutura hierárquica de servidores referidos anteriormente. Além disso, as várias experiências práticas realizadas permitiram validar as propriedades desejadas e, consequentemente, a tese que fundamenta esta dissertação.
Resumo:
A área de Aguiar da Beira está integrada nos terrenos autóctones da Zona Centro-ibérica e é constituída essencialmente por rochas granitóides variscas instaladas durante e após a terceira fase de deformação (D3). As relações de campo mostram que estes granitóides intruíram formações metassedimentares de idade proterozóica superior-câmbrica e as sequências do Ordovícico e do Carbónico do sinclinal Porto-Sátão, cujo extremo SE aflora na área de estudo. Com base na cartografia publicada e nos dados de campo colhidos no âmbito deste trabalho, foi possível individualizar oito intrusões distintas: o granodiorito -granito biotítico de Sernancelhe, o granito gnaissoso de duas micas, o granito moscovítico-biotítico de Vila Nova de Paiva, o granodiorito-granito biotítico-moscovítico de Lagares e os granitos de Touro (biotítico-moscovítico), Aguiar da Beira (moscovítico-biotítico), Pera Velha / Vila da Ponte (biotítico-moscovítico) e Rei Mouro (moscovítico-biotítico). A presença de encraves microgranulares em cinco dos granitóides estudados sugere que os processos de mistura de magmas desempenharam um papel importante na sua petrogénese. As datações U-Pb obtidas em zircões e monazites durante o presente estudo permitiram subdividir os granitóides de Aguiar da Beira em três grupos, de acordo com as suas relações com a terceira fase de deformação (D3): granitóides sin-tectónicos (Sernancelhe e granito gnaissoso; 322-317 Ma), tardi-tectónicos (Vila Nova de Paiva, Lagares e Touro; 308-306 Ma), e tardi- a pós-tectónicos (Aguiar da Beira, Pera Velha / Vila da Ponte e Rei Mouro; 303297 Ma). As assinaturas geoquímicas de elementos maiores e traço dos granitóides estudados, em conjunto com os dados isotópicos Sr-Nd e δ18 (rocha total e zircão) apontam para uma contribuição significativa de protólitos crustais na génese destes magmas. Á excepção do granito gnaissoso, todos os granitóides possuem um carácter transicional entre os granitos do tipo I e do tipo S, o que apoiado pelos dados de geoquímica de rocha total e isotópica, e pela presença de encraves microgranulares de composição mais máfica presentes em muitos deles, indicia uma forte intervenção de processos de hibridização de líquidos de proveniência distinta (crustais e mantélicos), em diferentes proporções, na sua origem. Pelo contrário, as características geoquímicas e isotópicas do granito gnaissoso revelam claras afinidades com os granitos do tipo S, e sugerem que tenha derivado da anatexia de fontes exclusivamente supracrustais. No entanto, parte da variabilidade geoquímica e isotópica observada em todos os granitóides estudados só poderá ser explicada pela actuação de processos de cristalização fraccionada, especialmente intensos no caso do granito gnaissoso e dos granitos tardi- a PÓS-D3.
Resumo:
A água subterrânea de rochas duras é uma fonte importante para fins domésticos, industriais e agrícolas e mesmo para o consumo humano. A geologia, a tectónica, a geomorfologia e as características hidrológicas controlam o fluxo, ocorrência e armazenamento das águas subterrâneas. A disponibilidade da água subterrânea no meio geológico está totalmente dependente das áreas de recarga e de descarga numa determinada bacia. A precipitação é a principal fonte de recarga em aquíferos descontínuos, enquanto que a descarga depende dos declives do terreno e dos gradientes do nível hidrostático e ainda das condições hidrogeológicas do solo. A hidrogeomorfologia é um domínio interdisciplinar emergente, que estuda as relações entre as unidades geomorfológicas e o regime das águas superficiais e subterrâneas de uma determinada área. A compreensão do papel da geomorfologia é essencial para avaliar de forma rigorosa os sistemas hidrogeológicos e os recursos hídricos. Os dados de detecção remota providenciam uma informação espacial valiosa e actualizada da superfície terrestre e dos recursos naturais. Os recentes avanços tecnológicos colocaram as técnicas de detecção remota e os sistemas de informação geográfica (SIG) numa posição cimeira como ferramentas de gestão metodológica. Foi criada, em ambiente SIG, uma base de geo-dados, essencialmente derivada da detecção remota, da cartografia e do trabalho de campo. Esta base de dados, organizada em diferentes níveis de informação, inclui uma avaliação principalmente focalizada no uso do solo, climatologia, declives, geologia, geomorfologia e hidrogeologia. No presente estudo foram cruzados diversos níveis de informação, com a geração de múltiplos mapas temáticos para atingir um quadro integrado dos diversos sectores no Norte e Centro de Portugal. Os sectores em estudo (Caldas da Cavaca, Termas de Entre-os-Rios, Águas de Arouca e Águas do Alardo) estão localizados em sistemas hidrogeológicos predominantemente constituídos por rochas graníticas, por vezes intersectadas por filões de quartzo, aplito-pegmatíticos e doleríticos. Para apoiar a elaboração dos mapas hidrogeomorfológicos foi criada uma base SIG, contendo diversa informação, nomeadamente topografia, hidrografia, litologia, tectónica, morfoestrutura, hidrogeologia, geofísica e uso do solo. Além disso, foram realizadas várias campanhas de campo, as quais permitiram: o estabelecimento dum mapeamento geológico, geomorfológico e hidrogeológico; a caracterização in situ do grau de alteração, resistência e grau de fracturação dos maciços rochosos; o desenvolvimento de um inventário hidrogeológico em conjunto com alguns ensaios expeditos in situ. A interligação entre os parâmetros geomorfológicos, hidrológicos e hidrogeológicos dos sistemas de água subterrânea “normal” e hidromineral destaca a importância de uma cartografia e duma modelação conceptual hidrogeomorfológica. Além disso, contribuirá para um melhor apoio à decisão na gestão sustentável dos recursos hídricos.
Resumo:
É hoje geralmente aceite que a educação em ciências, além da aprendizagem de conhecimento conceptual e procedimental, deve promover nos alunos o desenvolvimento de competências investigativas, ou seja, competências para identificar, formular e resolver problemas. Porém, o desenvolvimento de actividades práticas de natureza investigativa é difícil, pela carência, ou mesmo ausência, de vivências dos professores em investigações, sobretudo em projectos aplicáveis nas práticas lectivas. A frequente falta de formação inicial e contínua dos professores de ciências, relativamente ao desenvolvimento de competências indispensáveis à implementação desta perspectiva de trabalho prático, constitui um obstáculo à concretização de inovações educativas preconizadas para a educação em ciências, referidas em documentos aprovados e publicados pelo Ministério da Educação, em particular, orientações curriculares e programas disciplinares. A abordagem de temáticas em biotecnologia configura-se como uma necessidade das sociedades actuais, de modo que, atendendo aos avanços que se têm vindo a verificar nesta área, deverá integrar-se em educação científica formal, relacionando-a com a vida quotidiana dos cidadãos. Além de componentes científicas inovadoras, os seus desenvolvimentos têm diversas implicações, designadamente éticas, políticas, económicas e sociais. A investigação apresentada nesta dissertação insere-se neste quadro, a qual se baseou no seguinte problema: “Partindo de temáticas em biotecnologia, como estimular o desenvolvimento de trabalho prático numa perspectiva investigativa por professores de Biologia e/ou Geologia?”. Definiram-se dois objectivos gerais: 1) testar, conceber e optimizar actividades laboratoriais e experimentais em biotecnologia, transponíveis para contextos educativos dos ensinos básico e secundário, desmistificando a complexidade associada ao trabalho prático nesta área; 2) conceber, implementar e avaliar uma acção de formação para professores de Biologia e/ou Geologia, na modalidade de Oficina de Formação, visando em contextos escolares e em temáticas de biotecnologia, desenvolver percursos investigativos. A acção de formação “Desenvolvimento de actividades práticas em biotecnologia numa perspectiva investigativa: um contributo na (re)orientação de ensino e aprendizagem de ciências” estimulou os professores-formandos a participarem activamente num programa que integrava abordagens inovadoras de trabalho prático, e criou condições para, com orientação e apoio, desenvolverem percursos investigativos a partir de situações-problema em temáticas de biotecnologia. Na generalidade, as reflexões dos professores-formandos sobre os percursos investigativos planeados e implementados, e os ganhos a nível profissional e/ou pessoal, além de referências elogiosas à estrutura e sequência das actividades propostas na formação, realçaram os seguintes aspectos positivos: a) o enriquecimento de conhecimentos científico-tecnológicos em biotecnologia; b) a oportunidade de reflexão sobre as suas práticas e a necessidade de uma nova forma de olhar para o trabalho laboratorial e experimental e para o seu papel nas aulas de ciências; c) as potencialidades de trabalho prático numa perspectiva investigativa em termos de mobilização de competências de natureza conceptual e processual; d) o desenvolvimento de competências técnicas e processuais necessárias à implementação de percursos investigativos com recurso a procedimentos em biotecnologia. Do presente estudo decorrem implicações educacionais que se esperam pertinentes para a formação de professores de ciências e elaboração de recursos didácticos, designadamente manuais escolares, assim como, para a gestão dos programas disciplinares. Este estudo permitiu, ainda, apresentar propostas para futuras investigações.
Resumo:
O presente trabalho descreve um projeto de implementação da metodologia de Manutenção Produtiva Total (TPM) desenvolvido na Simoldes Plásticos, unidade industrial de injeção de plásticos que opera no setor automóvel. A metodologia TPM salienta o papel fundamental que o trabalho em equipa e, em particular, a participação do pessoal, podem desempenhar na identificação de oportunidades de melhoria e na sua implementação. A sua aplicação visa a diminuição dos desperdícios, acidentes, defeitos, paragens e falhas ao longo de um processo produtivo. De uma forma geral, a TPM utiliza uma ideia base elementar que passa pela sensibilização, formação e treino dos operadores para que estes consigam realizar a manutenção autónoma dos equipamentos e melhorar continuamente o seu desempenho. Este trabalho apresenta em primeiro lugar uma revisão dos conceitos de Gestão da Qualidade Total, particularmente da Melhoria Contínua e da Metodologia TPM. De seguida, é descrita a aplicação da TPM na empresa Simoldes Plásticos, que inclui uma descrição dos principais problemas encontrados e das medidas aplicadas para a sua correção. Finalmente é feita uma análise do impacto das melhorias implementadas, a partir da análise de um indicador de eficiência específico, desenvolvido na empresa - o RUTPM - Rendimento de Utilização TPM.
Resumo:
Anualmente ocorrem cerca de 16 milhões AVCs em todo o mundo. Cerca de metade dos sobreviventes irá apresentar défice motor que necessitará de reabilitação na janela dos 3 aos 6 meses depois do AVC. Nos países desenvolvidos, é estimado que os custos com AVCs representem cerca de 0.27% do Produto Interno Bruto de cada País. Esta situação implica um enorme peso social e financeiro. Paradoxalmente a esta situação, é aceite na comunidade médica a necessidade de serviços de reabilitação motora mais intensivos e centrados no doente. Na revisão do estado da arte, demonstra-se o arquétipo que relaciona metodologias terapêuticas mais intensivas com uma mais proficiente reabilitação motora do doente. Revelam-se também as falhas nas soluções tecnológicas existentes que apresentam uma elevada complexidade e custo associado de aquisição e manutenção. Desta forma, a pergunta que suporta o trabalho de doutoramento seguido inquire a possibilidade de criar um novo dispositivo de simples utilização e de baixo custo, capaz de apoiar uma recuperação motora mais eficiente de um doente após AVC, aliando intensidade com determinação da correcção dos movimentos realizados relativamente aos prescritos. Propondo o uso do estímulo vibratório como uma ferramenta proprioceptiva de intervenção terapêutica a usar no novo dispositivo, demonstra-se a tolerabilidade a este tipo de estímulos através do teste duma primeira versão do sistema apenas com a componente de estimulação num primeiro grupo de 5 doentes. Esta fase validará o subsequente desenvolvimento do sistema SWORD. Projectando o sistema SWORD como uma ferramenta complementar que integra as componentes de avaliação motora e intervenção proprioceptiva por estimulação, é descrito o desenvolvimento da componente de quantificação de movimento que o integra. São apresentadas as diversas soluções estudadas e o algoritmo que representa a implementação final baseada na fusão sensorial das medidas provenientes de três sensores: acelerómetro, giroscópio e magnetómetro. O teste ao sistema SWORD, quando comparado com o método de reabilitação tradicional, mostrou um ganho considerável de intensidade e qualidade na execução motora para 4 dos 5 doentes testados num segundo grupo experimental. É mostrada a versatilidade do sistema SWORD através do desenvolvimento do módulo de Tele-Reabilitação que complementa a componente de quantificação de movimento com uma interface gráfica de feedback e uma ferramenta de análise remota da evolução motora do doente. Finalmente, a partir da componente de quantificação de movimento, foi ainda desenvolvida uma versão para avaliação motora automatizada, implementada a partir da escala WMFT, que visa retirar o factor subjectivo da avaliação humana presente nas escalas de avaliação motora usadas em Neurologia. Esta versão do sistema foi testada num terceiro grupo experimental de cinco doentes.
Resumo:
O questionamento dos alunos é reconhecido como uma capacidade fundamental, de nível superior, associada ao desenvolvimento de outras competências centrais, como o pensamento crítico, a resolução de problemas ou a capacidade de reflexão, assumindo especial relevância no contexto de disciplinas científicas. O presente estudo surge no atual enquadramento de reestruturação curricular do ensino universitário em Portugal, como um caso de colaboração estreita entre investigadores do Departamento de Educação e professores das Unidades Curriculares de “Microbiologia”, “Genética” e “Temas e Laboratórios de Biologia”, do Departamento de Biologia, na Universidade de Aveiro. Estas unidades curriculares, dirigidas a alunos de várias licenciaturas, são sobretudo frequentadas por alunos do primeiro ano das licenciaturas em Biologia e Biologia/Geologia. Um dos principais objetivos era identificar contextos de prática no âmbito dos quais pudéssemos sugerir estratégias inovadoras de Ensino, Aprendizagem e Avaliação (EAA), que promovessem o questionamento dos estudantes, numa lógica de alinhamento construtivo. Outro dos objetivos era também o de analisar e caracterizar o questionamento dos alunos, associado à diversidade de estratégias adotadas. A presente investigação adota princípios dos paradigmas naturalista e sociocrítico, seguindo uma abordagem metodológica sobretudo de natureza qualitativa. As várias situações de EAA foram desenhadas, implementadas e adaptadas atendendo às particularidades de cada Unidade Curricular (UC), ao longo de dois estudos (2007/2008 e 2008/2009). O questionamento dos alunos foi caracterizado nos diversos contextos de EAA, atendendo ao seu nível cognitivo. Realizaram-se entrevistas semiestruturadas com alunos selecionados, no fim de cada estudo (17 alunos no total), e também com os professores envolvidos (4 professores), no fim do segundo estudo. A análise do questionamento dos alunos nos variados contextos, permitiu confirmar um questionamento espontâneo pouco frequente e tendencialmente de baixo nível cognitivo associado à expressão oral. No entanto, em situações com efeitos sumativos na avaliação, verificou-se um maior envolvimento e uma maior participação dos alunos, associados a uma maior frequência e qualidade do questionamento. Confirmamos o papel fundamental que a avaliação desempenha no decurso da aprendizagem, valorizando o seu papel formativo bem como o feedback proporcionado pelos professores no sentido de alcançar melhores desempenhos em termos de questionamento e, em última análise, em termos de aprendizagem. Todas as evidências recolhidas permitem afirmar que o questionamento constituiu um importante motor para um alinhamento construtivo entre o ensino, a aprendizagem e a avaliação, devidamente articulados com os objetivos de aprendizagem de cada UC. Comprovamos, também, que se não forem criadas situações em que os alunos sejam incentivados a questionar, situações que constituam para si um desafio, um estímulo extrínseco, apenas teremos acesso ao seu questionamento oral e espontâneo, com as características que já lhe são conhecidas. Afirmamos, assim, a relevância de se desenharem situações de ensino, aprendizagem e avaliação, que promovam nos alunos o desenvolvimento da competência de questionamento. Um outro objetivo central de investigação a que nos tínhamos proposto era a caracterização do questionamento dos alunos numa perspetiva mais holística, situando-o como uma competência fundamental que deverá ser desenvolvida em contextos educativos, mas também ao longo da vida. Avançamos com uma proposta de modelo de competência de questionamento, como um dos resultados principais do presente estudo. Este modelo surge de toda a experiência investigativa e, sobretudo, do estudo aprofundado de dois casos, correspondentes a dois alunos selecionados, que permitiu a elucidação das dimensões de competência. Assumindo o questionamento como competência, consideramos que o modelo proposto, e ainda em evolução, poderá representar um importante contributo para a teoria e para a prática do questionamento.
Resumo:
Um dos objetivos centrais da escola atual é o de desenvolver nos alunos competências que lhes permitam adaptar-se à sociedade em constante transformação e não apenas a veiculação de conteúdos académicos. No entanto, vários estudos mostram que existem dificuldades na transferência das aprendizagens da sala de aula para o mundo real. Uma das razões apontadas é o facto de os conhecimentos de sala de aula não serem bem integrados com os conhecimentos anteriores do aluno. Para que ocorram aprendizagens significativas, torna-se, portanto, necessário que o professor leve em consideração, no planeamento de estratégias de ensino, os conhecimentos anteriores e expectativas dos alunos, as suas questões e ideias. Para que tal aconteça, é essencial que os alunos interajam com o professor, agindo como parceiros no processo de ensino e de aprendizagem, exprimindo as suas ideias, dúvidas e expectativas. Assim sendo, nesta investigação procurou-se aumentar a participação dos alunos através da criação de momentos que lhes permitissem explorar as suas ideias e escrever as suas questões. As ‘produções’ orais e escritas dos alunos foram objeto de reflexão e análise pela professora-investigadora, e levadas em consideração no planeamento das aulas subsequentes. Os dados foram recolhidos através de observação participante e não-participante, de anotações do investigador, de questões e respostas escritas pelos alunos, e da gravação áudio das interações orais das aulas. O método de investigação adotado foi o estudo de caso, sendo a investigação de carácter qualitativo. Pese as limitações do estudo no que diz respeito à dimensão da amostra, os resultados apontam no sentido de que as estratégias aplicadas estimularam a participação dos alunos. A comparação entre o número de questões escritas pelos alunos e o número de intervenções orais em algumas das aulas lecionadas revelou que o número de alunos que escreveram questões foi superior ao número de alunos que intervieram oralmente. Constatou-se, ainda, que nas aulas em que não existiu um momento exclusivamente dedicado a esta atividade, o número de questões escritas pelos alunos foi menor do que o obtido nas aulas em que aquele tempo foi disponibilizado. Estes dados sugerem que a criação de momentos de escrita de questões permite aumentar a participação dos alunos, o que foi já anteriormente defendido por vários autores. Também os momentos de trabalho em grupo constituíram um espaço importante para a exploração das ideias dos alunos, o que se tornou visível pela grande atividade dentro dos grupos, com apresentação de argumentos, construção conjunta de conhecimentos e, sobretudo, pela variedade de propostas que surgiram como forma de dar resposta a questões idênticas das fichas de trabalho. De facto, constatou-se que um maior número de alunos participava nas discussões em turma, quando estas se seguiam aos momentos de trabalho em grupo, do que quando eram realizadas após a exposição dos temas programáticos. Em suma, o que estas constatações sugerem é que a inclusão de momentos de trabalho autónomo, com a possibilidade de trocar ideias com os colegas, pode contribuir para aumentar a motivação dos alunos para intervir na aula. A recolha de questões forneceu informação acerca de falhas no conhecimento e dúvidas implícitas e explicitas na expressão escrita dos alunos, o que corrobora os resultados encontrados por outros estudos. Da mesma forma, a análise do discurso oral dos alunos e das suas respostas escritas constituiu uma fonte de informação importante relativamente àqueles aspetos. A reflexão sobre estas permitiu à professora-investigadora fazer ajustes e planear estratégias adequadas à melhoraria dos aspetos em que foram identificados problemas. O uso das ‘produções’ escritas e orais dos alunos para discussão em aulas posteriores constituiu uma forma de promover interações aluno-aluno, permitiu aceder às dúvidas de outros alunos, que se identificaram com as ideias expressas nas questões escritas, respostas escritas e manifestações orais dos seus colegas, e ajudou a integrar os alunos na gestão do processo de ensino e aprendizagem. No que diz respeito à tentativa de estimular os alunos a reformularem as suas respostas, o pedido explícito de reformulação parece aumentar a predisposição dos alunos para fazerem alterações, quando comparado com os casos em que esse pedido não existiu. Estes resultados sugerem que esta estratégia tem a potencialidade de favorecer a reflexão dos alunos sobre as suas próprias ideias. No final da dissertação, apresentam-se as limitações deste estudo e propõem-se sugestões para melhorar e aprofundar as estratégias implementadas.
Resumo:
Desde a Pré-História que a escolha de materiais esteve relacionada com a Arte. Mais tarde, durante a Idade Moderna vai ganhando uma importância cada vez maior. Atingida que foi a Idade Contemporânea, nomeadamente após a Revolução Industrial e durante a Segunda Guerra Mundial, devido ao aumento do número de materiais disponíveis, é que se pode falar de uma verdadeira seleção de materiais. É também após a Revolução Industrial que se clarificam as relações entre a evolução dos materiais e os movimentos e correntes das Artes Plásticas. Neste contexto, estudaram-se as interligações entre o processo de design e as metodologias de seleção, assim como as diversas tipologias de ferramentas existentes para esse efeito. Deste estudo, consideradas as respetivas vantagens e limitações, foi possível identificar bases de dados essencialmente técnicas, ou ao invés, ferramentas para inspiração com muitas imagens e pouca informação sobre as propriedades dos materiais. Para completar este levantamento crítico sobre processos e ferramentas de seleção, inquiriram-se cinquenta e três profissionais que trabalhavam em diferentes gabinetes de design portugueses. As perguntas dirigidas aos designers portugueses versaram sobre problemas relacionados com a escolha de materiais, abrangendo o tipo de matériasprimas empregues, processos utilizados e a qualidade da informação obtida. Na sequência deste estudo, verificou-se a existência de diversas lacunas relativamente aos meios disponíveis, rotinas de seleção, qualidade da informação existente e metodologias utilizadas. Foi neste contexto que se iniciou o projeto de criação de uma nova metodologia suportada por uma ferramenta digital. Os principais aspetos inovadores são: uma melhor interligação entre a metodologia de design e o processo de seleção de materiais e a sua sincronização; a informação necessária em cada etapa e o destaque dos fatores catalisadores da seleção de materiais. Outro elemento inovador foi a conjugação de três formas deferentes de seleção de materiais numa só ferramenta (a geral, a visual e a específica) e a hipótese de aceder a diferentes graus de informação. A metodologia, no contexto dos recursos disponíveis, foi materializada sob a forma de ferramenta digital (ptmaterials.com). O protótipo foi aferido com testes de usabilidade de cariz heurístico, com a participação de dezanove utilizadores. Foram detetadas diversas falhas de interação que condicionaram a liberdade e o controlo da navegação no seio da interface. Os utilizadores também mencionaram a existência de lacunas na prevenção de erros e a ligação do sistema à lógica habitual de outras aplicações já existentes. No entanto, também constituiu um estímulo a circunstância da maioria dos designers avaliarem o sistema como eficaz, eficiente, satisfatório e confirmarem o interesse da existência dos três tipos de seleção. Posteriormente, ao analisar os restantes resultados dos testes de usabilidade, também foram evidenciadas as vantagens dos diferentes tipos de informação disponibilizada e a utilidade de uma ferramenta desta natureza para a Indústria e Economia Nacionais. Esta ferramenta é apenas um ponto de partida, existindo espaço para melhorar a proposta, apesar da concretização de uma ferramenta digital ser um trabalho de grande complexidade. Não obstante se tratar de um protótipo, esta ferramenta está adequada aos dias de hoje e é passível de evoluir no futuro, tendo também a possibilidade de vir a ser preferencialmente utilizada por outros países de língua portuguesa.
Resumo:
In this work several techniques to monitor the performance of optical networks were developed. These techniques are dedicated either to the measurement of the data signal parameters (optical signal to noise ratio and dispersion) or to the detection of physical failures on the network infrastructure. The optical signal to noise ratio of the transmitted signal was successfully monitored using methods based on the presence of Bragg gratings imprinted on high birefringent fibres that allowed the distinction of the signal from the noise due to its polarization properties. The monitoring of the signal group-velocity dispersion was also possible. In this case, a method based on the analysis of the electric spectrum of the signal was applied. It was experimentally demonstrated that this technique is applicable on both amplitude and phase modulated signals. It was also developed a technique to monitor the physical infrastructure of an optical access network. Once again, the application of Bragg gratings (this time imprinted on standard single mode fibres) was the basis of the developed method.
Resumo:
The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.
Resumo:
The performance of real-time networks is under continuous improvement as a result of several trends in the digital world. However, these tendencies not only cause improvements, but also exacerbates a series of unideal aspects of real-time networks such as communication latency, jitter of the latency and packet drop rate. This Thesis focuses on the communication errors that appear on such realtime networks, from the point-of-view of automatic control. Specifically, it investigates the effects of packet drops in automatic control over fieldbuses, as well as the architectures and optimal techniques for their compensation. Firstly, a new approach to address the problems that rise in virtue of such packet drops, is proposed. This novel approach is based on the simultaneous transmission of several values in a single message. Such messages can be from sensor to controller, in which case they are comprised of several past sensor readings, or from controller to actuator in which case they are comprised of estimates of several future control values. A series of tests reveal the advantages of this approach. The above-explained approach is then expanded as to accommodate the techniques of contemporary optimal control. However, unlike the aforementioned approach, that deliberately does not send certain messages in order to make a more efficient use of network resources; in the second case, the techniques are used to reduce the effects of packet losses. After these two approaches that are based on data aggregation, it is also studied the optimal control in packet dropping fieldbuses, using generalized actuator output functions. This study ends with the development of a new optimal controller, as well as the function, among the generalized functions that dictate the actuator’s behaviour in the absence of a new control message, that leads to the optimal performance. The Thesis also presents a different line of research, related with the output oscillations that take place as a consequence of the use of classic co-design techniques of networked control. The proposed algorithm has the goal of allowing the execution of such classical co-design algorithms without causing an output oscillation that increases the value of the cost function. Such increases may, under certain circumstances, negate the advantages of the application of the classical co-design techniques. A yet another line of research, investigated algorithms, more efficient than contemporary ones, to generate task execution sequences that guarantee that at least a given number of activated jobs will be executed out of every set composed by a predetermined number of contiguous activations. This algorithm may, in the future, be applied to the generation of message transmission patterns in the above-mentioned techniques for the efficient use of network resources. The proposed task generation algorithm is better than its predecessors in the sense that it is capable of scheduling systems that cannot be scheduled by its predecessor algorithms. The Thesis also presents a mechanism that allows to perform multi-path routing in wireless sensor networks, while ensuring that no value will be counted in duplicate. Thereby, this technique improves the performance of wireless sensor networks, rendering them more suitable for control applications. As mentioned before, this Thesis is centered around techniques for the improvement of performance of distributed control systems in which several elements are connected through a fieldbus that may be subject to packet drops. The first three approaches are directly related to this topic, with the first two approaching the problem from an architectural standpoint, whereas the third one does so from more theoretical grounds. The fourth approach ensures that the approaches to this and similar problems that can be found in the literature that try to achieve goals similar to objectives of this Thesis, can do so without causing other problems that may invalidate the solutions in question. Then, the thesis presents an approach to the problem dealt with in it, which is centered in the efficient generation of the transmission patterns that are used in the aforementioned approaches.
Resumo:
Network virtualisation is seen as a promising approach to overcome the so-called “Internet impasse” and bring innovation back into the Internet, by allowing easier migration towards novel networking approaches as well as the coexistence of complementary network architectures on a shared infrastructure in a commercial context. Recently, the interest from the operators and mainstream industry in network virtualisation has grown quite significantly, as the potential benefits of virtualisation became clearer, both from an economical and an operational point of view. In the beginning, the concept has been mainly a research topic and has been materialized in small-scale testbeds and research network environments. This PhD Thesis aims to provide the network operator with a set of mechanisms and algorithms capable of managing and controlling virtual networks. To this end, we propose a framework that aims to allocate, monitor and control virtual resources in a centralized and efficient manner. In order to analyse the performance of the framework, we performed the implementation and evaluation on a small-scale testbed. To enable the operator to make an efficient allocation, in real-time, and on-demand, of virtual networks onto the substrate network, it is proposed a heuristic algorithm to perform the virtual network mapping. For the network operator to obtain the highest profit of the physical network, it is also proposed a mathematical formulation that aims to maximize the number of allocated virtual networks onto the physical network. Since the power consumption of the physical network is very significant in the operating costs, it is important to make the allocation of virtual networks in fewer physical resources and onto physical resources already active. To address this challenge, we propose a mathematical formulation that aims to minimize the energy consumption of the physical network without affecting the efficiency of the allocation of virtual networks. To minimize fragmentation of the physical network while increasing the revenue of the operator, it is extended the initial formulation to contemplate the re-optimization of previously mapped virtual networks, so that the operator has a better use of its physical infrastructure. It is also necessary to address the migration of virtual networks, either for reasons of load balancing or for reasons of imminent failure of physical resources, without affecting the proper functioning of the virtual network. To this end, we propose a method based on cloning techniques to perform the migration of virtual networks across the physical infrastructure, transparently, and without affecting the virtual network. In order to assess the resilience of virtual networks to physical network failures, while obtaining the optimal solution for the migration of virtual networks in case of imminent failure of physical resources, the mathematical formulation is extended to minimize the number of nodes migrated and the relocation of virtual links. In comparison with our optimization proposals, we found out that existing heuristics for mapping virtual networks have a poor performance. We also found that it is possible to minimize the energy consumption without penalizing the efficient allocation. By applying the re-optimization on the virtual networks, it has been shown that it is possible to obtain more free resources as well as having the physical resources better balanced. Finally, it was shown that virtual networks are quite resilient to failures on the physical network.
Resumo:
Over the last decade, the most widespread approaches for traditional management were based on the Simple Network Management Protocol (SNMP) or Common Management Information Protocol (CMIP). However, they both have several problems in terms of scalability, due to their centralization characteristics. Although the distributed management approaches exhibit better performance in terms of scalability, they still underperform regarding communication costs, autonomy, extensibility, exibility, robustness, and cooperation between network nodes. The cooperation between network nodes normally requires excessive overheads for synchronization and dissemination of management information in the network. For emerging dynamic and large-scale networking environments, as envisioned in Next Generation Networks (NGNs), exponential growth in the number of network devices and mobile communications and application demands is expected. Thus, a high degree of management automation is an important requirement, along with new mechanisms that promote it optimally and e ciently, taking into account the need for high cooperation between the nodes. Current approaches for self and autonomic management allow the network administrator to manage large areas, performing fast reaction and e ciently facing unexpected problems. The management functionalities should be delegated to a self-organized plane operating within the network, that decrease the network complexity and the control information ow, as opposed to centralized or external servers. This Thesis aims to propose and develop a communication framework for distributed network management which integrates a set of mechanisms for initial communication, exchange of management information, network (re) organization and data dissemination, attempting to meet the autonomic and distributed management requirements posed by NGNs. The mechanisms are lightweight and portable, and they can operate in di erent hardware architectures and include all the requirements to maintain the basis for an e cient communication between nodes in order to ensure autonomic network management. Moreover, those mechanisms were explored in diverse network conditions and events, such as device and link errors, di erent tra c/network loads and requirements. The results obtained through simulation and real experimentation show that the proposed mechanisms provide a lower convergence time, smaller overhead impact in the network, faster dissemination of management information, increase stability and quality of the nodes associations, and enable the support for e cient data information delivery in comparison to the base mechanisms analyzed. Finally, all mechanisms for communication between nodes proposed in this Thesis, that support and distribute the management information and network control functionalities, were devised and developed to operate in completely decentralized scenarios.