891 resultados para Tecnologias de dessalinização


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recentemente assistimos a uma evolução da relação do Homem com a tecnologia, em larga medida acompanhada por novos modelos de interacção que modificam a forma de conceber os artefactos e constroem novos contextos de uso. Procuramos investigar, na presente tese, uma das abordagens emergentes, o universo dos media tangíveis, articulando a perspectiva do design da tecnologia orientada para a Human-Computer Interation (HCI), com a dimensão social, cultural e estética no uso da tecnologia. Os media tangíveis, ao contrário do que sucede com os conteúdos digitais convencionais, têm espessura e expressão física e, porque são dotados de um corpo que habita o espaço das disposições físicas, estão sujeitos à acção do mundo cultural e das práticas sociais que regem os demais objectos físicos que podemos encontrar no nosso quotidiano. Esta nova relação com a tecnologia digital obrigará as disciplinas que se encontram mais próximas do desenvolvimento tecnológico, tais como o Design de Interacção e a HCI, a abrirem-se aos contributos e abordagens das ciências humanas. Admitindo que a natureza subjacente ao processo da adaptabilidade no ambiente doméstico altera o equilíbrio da relação entre o design e o uso da tecnologia, julgamos ser essencial o desenvolvimento de uma fenomenologia da interação. Por outro lado, a adaptabilidade dos media tangíveis apresenta um conjunto de dificuldades, não apenas de ordem técnica, mas também de natureza conceptual, que têm dificultado o desenvolvimento e a implementação no terreno de tecnologias personalizáveis. Um dos objectivos da presente tese consiste em investigar um quadro conceptual capaz de enquadrar o fenómeno da adaptabilidade dos media tangíveis, e desenvolver uma tecnologia que possa servir de objecto a um estudo empírico com base numa abordagem etnográfica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A literatura da especialidade indica que os estudantes do Ensino Superior (ES) demonstram falta de competências de pesquisa, seleção e tratamento de informação científica com recurso às Tecnologias da Informação e Comunicação (TIC), nomeadamente as ferramentas da Web 2.0. A maioria dos estudos sobre esta temática envolve estudantes de 1.º Ciclo do Ensino Superior, sendo poucos os que se baseiam em referenciais de avaliação destas competências. Visando obter subsídios práticos e teóricos sobre a avaliação dessas competências, ter conhecimento das competências nesta área que os estudantes do ES, em nível de pós-graduação, possuem, e das suas necessidades de formação neste domínio, desenvolveu-se um estudo que foi desenvolvido em três fases. Na primeira fase após a identificação do problema a ser estudado, a falta de competências relacionadas com a Literacia de Informação (LI) de estudantes de pós-graduação, foi realizada a revisão da literatura para a determinação dos conceitos basilares e a sustentação teórica das fases subsequentes, que prendem-se com as competências relacionadas com a LI e como estas têm sido avaliadas. A segunda fase ocupou-se da avaliação de estudantes dos 2.º e 3.º Ciclos do Departamento de Educação da Universidade de Aveiro (UA). Com base na revisão da literatura e em colaboração com os bibliotecários da UA foi definido o referencial de avaliação das competências que definem as dimensões de pesquisa, seleção e tratamento de informação científica, com recurso às TIC. A confiabilidade deste referencial (primeira questão de investigação) foi estabelecida a partir dos contributos de docentes/bibliotecários de Instituições de Ensino Superior (IES), de Portugal e do Brasil. Optou-se pela técnica de estatística descritiva e análise de conteúdo para o estudo das informações destes profissionais. Deste modo, esta investigação permitiu a construção de um referencial de avaliação das competências relacionadas com a LI, com recurso às TIC. O referencial é um fundamento para a construção de instrumentos de avaliação em razão de evidenciar as competências que os estudantes do ES devem possuir de pesquisa, seleção e tratamento de informação científica, com recurso às TIC. Assim, foi permitido, com base no referencial de avaliação e no instrumento de recolha de dados utilizado com os profissionais de IES, desenvolver um questionário que foi aplicado aos estudantes de pós-graduação do Departamento de Educação da UA. Pelas respostas, obteve-se o conhecimento da perceção que possuem a respeito das suas competências de pesquisa, seleção e tratamento de informação científica, com recurso às TIC, e das suas necessidades de formação neste domínio (segunda e terceira questões de avaliação). Para esta análise optou-se pela técnica de estatística descritiva. A terceira fase ocupou-se da escrita da tese, que foi desenvolvida ao longo de toda a investigação, sendo mais intensa nos últimos seis meses. Os resultados da avaliação indicam não só que a maior parte dos estudantes aponta saber utilizar ferramentas digitais mas também têm a perceção de possuir competências relacionadas com a LI, com recurso às TIC, a nível elevado e muito elevado. As repostas da avaliação foram confrontadas com a literatura consultada. De modo igual, indicam que os estudantes do ES superestimam suas competências nesta área, embora não apresentem ações eficazes que demonstrem dominar as competências que supõem ter, sendo um indicativo da necessidade de formação destes estudantes. Recomenda-se que a academia leve em conta o confronto diário com estas tecnologias, que permeiam o modo de aprendizagem de estudantes. Os intervenientes do ambiente académico devem trabalhar em colaboração contínua, para que a partir de ações bem planejadas se possam colmatar as lacunas apresentadas. Devem-se atender as necessidades de formação de estudantes de pós-graduação identificadas por meio de avaliações, com base num referencial. É decursiva, para trabalhos futuros, a necessidade de analisar a confiabilidade do questionário que foi aplicado aos estudantes dos 2.º e 3.º Ciclos do Departamento de Educação da UA e os resultados da sua aplicação, fazendo-o evoluir de acordo com o feedback da sua utilização e a evolução das TIC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reforma curricular do ensino secundário em Portugal, enquadrada pelo Decreto-Lei nº. 74/2004, de 26 de Março, com as alterações introduzidas pelo Decreto-Lei nº. 24/2006, de 6 de Fevereiro, integra no desenho curricular dos cursos Científico- Humanísticos a Área de Projeto (AP). Esta área curricular não disciplinar, inscrita no plano de estudo dos referidos cursos, centra-se na realização de projectos concretos por parte dos alunos tendo em vista o desenvolvimento de uma visão integradora do saber, a promoção da sua orientação escolar e profissional e facilitar a sua aproximação ao mundo do trabalho (DGIDC, 2006, p.5). Diversos autores (Caamaño, 2005; Cachapuz et al., 2002; Pedrosa, 2001; Santos, 1999; Pérez, 1998; entre outros) apontam para a necessidade de a escola criar situações formativas que permitam aos alunos não só desenvolverem competências de pesquisa, selecção e organização de informação, mas também de estabelecerem relações entre os conhecimentos, de forma a adquirirem um saber integrado e a desenvolverem ainda competências de vivência numa sociedade que se rege por princípios de uma cidadania democrática e participativa. Sendo recente a implementação da Área de Projecto no ensino secundário, e face às actuais exigências sociais de criatividade e de inovação e à necessidade de intervir no futuro e de o conter dentro de limites previsíveis, partimos para este estudo com a seguinte questão: Qual o contributo da área curricular não disciplinar Área de Projecto do 12º ano - cursos de Ciências e Tecnologias - para o desenvolvimento de competências requeridas a um cidadão do século XXI? Perante esta questão, definimos como objectivos para a presente investigação: (a) estudar as potencialidades educativas da AP (12º ano) como contributo para o desenvolvimento de competências de cidadania; (b) estudar as potencialidades educativas da AP (12º ano) para a educação em e pelas ciências e (c) contribuir para o desenvolvimento do conhecimento didáctico sobre a relevância da AP no ensino secundário. Face aos objectivos definidos, delineámos uma metodologia de investigação qualitativa com características de estudo de caso, fazendo recurso de diversos instrumentos de recolha de dados (entrevista, questionário, observação directa, análise documental), e da análise de conteúdo como técnica principal de análise de dados. Os participantes privilegiados do estudo foram, para além da investigadora, alunos de uma turma do 12º ano e a respectiva professora de Área de Projecto. O estudo de caso consistiu no acompanhamento da concepção e do desenvolvimento da AP, numa turma de 12 alunos do 12º ano de escolaridade da cidade da Horta (Açores/Portugal), bem como na avaliação do seu impacto nos alunos da referida turma. Os resultados da investigação apontam, no caso concreto em estudo, para um elevado potencial educativo desta área curricular (traduzido por exemplo, ao nível de competências processuais e atitudinais), mas também para uma natureza excessivamente formal no desenvolvimento curricular de AP, incluindo a avaliação das aprendizagens dos alunos. Os resultados sugerem ainda a necessidade de se desenvolver uma didáctica especifica desta área curricular, que valorize as características de cada aluno e as especificidades do seu contexto, bem como as metodologias de trabalho a serem utilizadas, por forma a evitar que esta área curricular se transforme em mais uma disciplina do plano de estudos dos alunos. Vários caminhos de investigação futura emergem do estudo realizado. A título exemplificativo refira-se a necessidade de estudar como a formação de professores pode contribuir para o desenvolvimento profissional dos mesmos no âmbito da leccionação de AP e de outras similares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The promise of a truly mobile experience is to have the freedom to roam around anywhere and not be bound to a single location. However, the energy required to keep mobile devices connected to the network over extended periods of time quickly dissipates. In fact, energy is a critical resource in the design of wireless networks since wireless devices are usually powered by batteries. Furthermore, multi-standard mobile devices are allowing users to enjoy higher data rates with ubiquitous connectivity. However, the bene ts gained from multiple interfaces come at a cost in terms of energy consumption having profound e ect on the mobile battery lifetime and standby time. This concern is rea rmed by the fact that battery lifetime is one of the top reasons why consumers are deterred from using advanced multimedia services on their mobile on a frequent basis. In order to secure market penetration for next generation services energy e ciency needs to be placed at the forefront of system design. However, despite recent e orts, energy compliant features in legacy technologies are still in its infancy, and new disruptive architectures coupled with interdisciplinary design approaches are required in order to not only promote the energy gain within a single protocol layer, but to enhance the energy gain from a holistic perspective. A promising approach is cooperative smart systems, that in addition to exploiting context information, are entities that are able to form a coalition and cooperate in order to achieve a common goal. Migrating from this baseline, this thesis investigates how these technology paradigm can be applied towards reducing the energy consumption in mobile networks. In addition, we introduce an additional energy saving dimension by adopting an interlayer design so that protocol layers are designed to work in synergy with the host system, rather than independently, for harnessing energy. In this work, we exploit context information, cooperation and inter-layer design for developing new energy e cient and technology agnostic building blocks for mobile networks. These technology enablers include energy e cient node discovery and short-range cooperation for energy saving in mobile handsets, complemented by energy-aware smart scheduling for promoting energy saving on the network side. Analytical and simulations results were obtained, and veri ed in the lab on a real hardware testbed. Results have shown that up to 50% energy saving could be obtained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No atual contexto de disseminação e uso das tecnologias da comunicação para a geração de conteúdo não especializado, igualmente partilhado e utilizado, torna-se pertinente sublinhar a participação dos recursos humanos na cocriação da marca organizacional. Esta participação, todavia, encontra alguns constrangimentos e necessidades, tais como a falta de orientação no uso devido da marca gráfica, e a adequação das ferramentas comunicacionais e de gestão do conhecimento de que estes indivíduos são portadores. Neste enquadramento, pretende-se validar um modelo heurístico que explique, satisfatoriamente, de que forma as organizações podem envolver os seus recursos humanos em atividades de valorização da marca, em contextos de informação e comunicação tecnologicamente mediados, e que possa assumirse como um impulsionador da adoção destas práticas. A abordagem metodológica é de natureza exploratória, iterativa e qualitativa, assentando na Grounded Theory e, portanto, num processo indutivo de produção de conhecimento, reconhecendo a existência de momentos de descoberta e, aproximando-se do paradigma construtivista. O estudo que conduz à proposta final de um modelo de comunicação mediada por computador para a valorização da marca assenta, essencialmente, na revisão da literatura através da pesquisa bibliográfica, e num estudo de caso, que assume como procedimentos técnicos os inquéritos por entrevista, para uma primeira verificação dos pressupostos do modelo, a construção de um protótipo não-funcional de uma Central Participativa de Marca (CPM), capaz de expressar a componente tecnológica presente no modelo, e a realização de grupos focais, com o intuito de alcançar a sua validação não-experimental. O estudo de caso realizado debruça-se sobre a Universidade de Aveiro (UA) e sobre o uso e apropriação da sua marca, por parte dos membros da sua comunidade docente e não-docente. Os resultados das entrevistas exploratórias, para as quais se recorre a uma amostra por conveniência composta por entidades relevantes no que à promoção da marca da UA concerne, são combinados com os conteúdos extraídos do levantamento bibliográfico, de modo a serem contemplados tanto na aferição dos domínios de interação que informam o modelo, como na conceção do protótipo de uma plataforma de colaboração online, especificamente orientada à marca, apresentado a cinco grupos focais que neles integram a população-alvo estudada. Este estudo empírico permite uma primeira validação do modelo heurístico proposto, confirmando que a participação na cocriação de artefactos de marca tende a acontecer de forma não oficial, por falta de iniciativas organizacionais que valorizem o capital humano, e que a orientação para o uso e apropriação da marca é fundamental na concretização deste tipo de contributos, dados por indivíduos não especializados em branding, design, comunicação ou estratégia de marketing. Os resultados permitem validar ainda a configuração e a estrutura de interação propostas para o sistema subjacente ao protótipo da CPM, assim como a generalidade das suas funcionalidades, permitindo a proposta de uma heurística focada na experimentação da marca no seio organizacional. Finalmente, são identificadas linhas de investigação futura nesta área, decorrentes dos resultados alcançados e das limitações do estudo realizado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Information Visualization is gradually emerging to assist the representation and comprehension of large datasets about Higher Education Institutions, making the data more easily understood. The importance of gaining insights and knowledge regarding higher education institutions is little disputed. Within this knowledge, the emerging and urging area in need of a systematic understanding is the use of communication technologies, area that is having a transformative impact on educational practices worldwide. This study focused on the need to visually represent a dataset about how Portuguese Public Higher Education Institutions are using Communication Technologies as a support to teaching and learning processes. Project TRACER identified this need, regarding the Portuguese public higher education context, and carried out a national data collection. This study was developed within project TRACER, and worked with the dataset collected in order to conceptualize an information visualization tool U-TRACER®. The main goals of this study related to: conceptualization of the information visualization tool U-TRACER®, to represent the data collected by project TRACER; understand higher education decision makers perception of usefulness regarding the tool. The goals allowed us to contextualize the phenomenon of information visualization tools regarding higher education data, realizing the existing trends. The research undertaken was of qualitative nature, and followed the method of case study with four moments of data collection.The first moment regarded the conceptualization of the U-TRACER®, with two focus group sessions with Higher Education professionals, with the aim of defining the interaction features the U-TRACER® should offer. The second data collection moment involved the proposal of the graphical displays that would represent the dataset, which reading effectiveness was tested by end-users. The third moment involved the development of a usability test to the UTRACER ® performed by higher education professionals and which resulted in the proposal of improvements to the final prototype of the tool. The fourth moment of data collection involved conducting exploratory, semi-structured interviews, to the institutional decision makers regarding their perceived usefulness of the U-TRACER®. We consider that the results of this study contribute towards two moments of reflection. The challenges of involving end-users in the conceptualization of an information visualization tool; the relevance of effective visual displays for an effective communication of the data and information. The second relates to the reflection about how the higher education decision makers, stakeholders of the U-TRACER® tool, perceive usefulness of the tool, both for communicating their institutions data and for benchmarking exercises, as well as a support for decision processes. Also to reflect on the main concerns about opening up data about higher education institutions in a global market.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The increasing complexity of the Information Society and the Bologna Declaration in the European context has led Higher Education (HE) institutions to revise their curricula courses, as far as the adoption of new strategies for teaching and learning as well as evaluation are concerned. It can also be emphasized that there has been a growing use of eLearning and of blended learning (bLearning) in HE, since these modes of training seem to be a very convenient option for lifelong learning. In this context, quality is taken as an essential goal in the development of the European Space for Education and Training, where HE institutions compete among themselves, and where evaluation is determinant as a promoter of this quality. Considering the problems summarized above, the research developed, based on four published scientific papers, intended to answer a set of research questions related to evaluation of bLearning contexts in HE. The study used diverse techniques and instruments (questionnaires, document analysis, and observation mediated technologies) spanning two methodological approaches: i) study of descriptive and exploratory nature and ii) case studies of bLearning modules. In the first approach an evaluation model for bLearning courses was developed, where we collected and analyzed, at a national level, the opinions of teachers with bLearning experience about the model dimensions. The case studies presented are post graduation curricular units, where bLearning teaching, learning and evaluation strategies were explored and evaluated, namely peer assessment. The main contributions of the first approach are: the process of questioning around the evaluation of bLearning courses, namely the quality assurance criteria for bLearning, as well as the model developed, providing a framework of theoretical, methodological and empirical elements that can be adapted in similar contexts. From the case studies emerged: the developed evaluation guidelines and the data collection instruments, in order to disseminate evaluation “best practices” that may be useful for other units in similar contexts. Regarding the recommendations about the evaluation of teaching of bLearning courses we emphasize: the use of versatile evaluation objects; the evaluation throughout the process and not just at the end; and the involvement of multiple evaluators, including students (whose feedback is essential to monitor the quality of teaching and learning). From the case studies we highlight: the need for discussion of evaluation frameworks to explore, and consequent increase in the transparency of the evaluation process; the increased interaction between groups; and the peer assessment as a strategy to promote active and autonomous learning. In addition to the contributions and recommendations for practice and research in the area of evaluation in bLearning contexts in HE, listed above, it also emerged from this study useful guidelines regarding educational evaluation in bLearning contexts, in order to improve the quality of teaching, learning and evaluation in such contexts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde que surgiu há mais de 50 anos, a televisão sofreu muitas transformações, tanto ao nível tecnológico (por exemplo com a passagem da emissão a preto/branco para cor, o som analógico para digital, a difusão digital) como a nível da sua influência nas sociedades. Entre outros fatores de ordem tecnológica, a consolidação da Internet com o seu elevado nível de personalização, da experiência de utilização, e a sua enorme quantidade de conteúdos disponíveis, catapultou a televisão no sentido de esta se tornar mais interativa. Assim, o telespectador passou a poder usufruir de uma experiência televisiva que pode, por um lado, ser mais participativa, sendo-lhe possível, por exemplo, alvitrar sobre a qualidade de um programa enquanto assiste à sua exibição, e, por outro, ser mais personalizada, possibilitando-lhe, por exemplo, receber conteúdos automaticamente adequados ao seu perfil e contexto. No entanto, esta experiência mais participativa e personalizável carece de uma identificação, idealmente automática e não intrusiva, de quem pode beneficiar da mesma – o telespectador. Contudo, e apesar de significativos avanços na área da televisão interativa, tanto ao nível da infraestrutura de suporte como ao nível dos serviços disponibilizados, a identificação dos utilizadores é, ainda, uma área de estudo com muitos aspetos por compreender. Os seniores, em particular, são grandes consumidores de televisão e representam uma fatia muito considerável das pessoas que podem beneficiar das potencialidades disponibilizadas pela interatividade presente em muitos serviços atuais. Um número crescente destes serviços são desenhados com o objetivo de promoverem um envelhecimento ativo e um concreto apoio à vida, pelo que os seniores podem beneficiar, em vários aspetos do seu quotidiano, se os utilizarem. Nesta faixa etária, a identificação de utilizadores tem, como elemento potenciador da experiência de utilização, um papel especialmente importante ao nível de um aproveitamento personalizado e dirigido destes serviços. No entanto, atendendo às diferentes combinações de características físicas, sensoriais, cognitivas e, mesmo, de literacia digital que tipificam os seniores, perspetivou-se existir uma dependência do perfil do utilizador na seleção do método de identificação mais adequado, os quais podem ser baseados, por exemplo, num leitor de impressões digitais, instalado no telecomando; na leitura de uma wearable tag ou de um cartão RFiD; no reconhecimento da face e, eventualmente, na voz do utilizador. Assim, a inerente investigação desenrolou-se em várias fases, no sentido de permitir alicerçar a construção de uma matriz de decisão tecnológica que, em função do perfil de utilizador, selecione o sistema de identificação mais adequado. O procedimento metodológico inerente à construção desta matriz de decisão, passou por um longo processo envolvendo utilizadores reais, que se iniciou com a realização de entrevistas exploratórias com o objetivo de permitir conhecer melhor os seniores e a forma como estes encaram a tecnologia e, mais concretamente, a televisão interativa. Foi depois implementado um protótipo de alta-fidelidade, completamente funcional, para a realização de testes com o objetivo de perceber qual a preferência relativamente a um subconjunto de tecnologias de identificação. Estes testes, uma vez que não permitiram testar todas as tecnologias em estudo, revelaram-se inconclusivos, porém permitiram reforçar a necessidade de identificar e caracterizar os referidos aspetos do perfil do utilizador que podem interferir na sua preferência relativamente ao sistema de identificação. As características identificadas constituíram-se como os parâmetros de entrada da matriz, sendo que para preencher as respetivas células realizaramse testes de aceitação, com um conjunto de seniores, tendo por base um protótipo, wizard of oz, especificamente implementado para permitir experienciar todas as tecnologias em estudo. Estes testes foram precedidos pela avaliação das capacidades funcionais dos participantes, nos diversos parâmetros definidos. Este texto relata, assim, todo o processo de investigação que foi conduzido, terminando com uma descrição de exemplos de utilização da matriz de decisão implementada e com a identificação de potenciais caminhos de desenvolvimento deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No âmbito do tema Multimédia em Educação, optámos por analisar uma sequência pedagógica em Português Língua Não Materna, contextualizada em interações interculturais telecolaborativas, mediadas pela plataforma Adobe Connect Pro. Para o efeito, foram transcritas as gravações dessas interações, submetidas a análise de conteúdo com o software de abordagem qualitativa webQDA, tendo em conta as seguintes dimensões: (i) dimensão operacional das literacias digitais online; (ii) atitude perante as tecnologias online; (iii) negociação de sentido, (iii) enunciados não relacionados com o projeto; (iv) atividades reflexivas sobre a língua por parte dos aprendentes; (v) enunciados dos participantes falantes nativos em interação com os aprendentes. Após a análise e discussão de resultados, é possível afirmar que a realização de interações interculturais telecolaborativas contribui para a reformulação de conhecimentos (Lankshear e Knobel, 2006) em termos de: competência tecnológica e literacia online; perceção de como as limitações técnicas podem condicionar a realização de um projeto; tomada de consciência do desenvolvimento (e vantagens) de uma atitude 2.0; aprofundamento da competência na língua-alvo e do conhecimento de realidades culturais através da comunicação com falantes nativos. Ainda assim, reconhecemos a pertinência e urgência do desenvolvimento de um trabalho com acuidade na área da formação intercultural telecolaborativa quer no âmbito da formação de professores (inicial e contínua) quer com os alunos durante as aulas de língua.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudar os mecanismos subjacentes à produção de fala é uma tarefa complexa e exigente, requerendo a obtenção de dados mediante a utilização de variadas técnicas, onde se incluem algumas modalidades imagiológicas. De entre estas, a Ressonância Magnética (RM) tem ganho algum destaque, nos últimos anos, posicionando-se como uma das mais promissoras no domínio da produção de fala. Um importante contributo deste trabalho prende-se com a otimização e implementação de protocolos (RM) e proposta de estratégias de processamento de imagem ajustados aos requisitos da produção de fala, em geral, e às especificidades dos diferentes sons. Para além disso, motivados pela escassez de dados para o Português Europeu (PE), constitui-se como objetivo a obtenção de dados articulatórios que permitam complementar informação já existente e clarificar algumas questões relativas à produção dos sons do PE (nomeadamente, consoantes laterais e vogais nasais). Assim, para as consoantes laterais foram obtidas imagens RM (2D e 3D), através de produções sustidas, com recurso a uma sequência Eco de Gradiente (EG) rápida (3D VIBE), no plano sagital, englobando todo o trato vocal. O corpus, adquirido por sete falantes, contemplou diferentes posições silábicas e contextos vocálicos. Para as vogais nasais, foram adquiridas, em três falantes, imagens em tempo real com uma sequência EG - Spoiled (TurboFLASH), nos planos sagital e coronal, obtendo-se uma resolução temporal de 72 ms (14 frames/s). Foi efetuada aquisição sincronizada das imagens com o sinal acústico mediante utilização de um microfone ótico. Para o processamento e análise de imagem foram utilizados vários algoritmos semiautomáticos. O tratamento e análise dos dados permitiu efetuar uma descrição articulatória das consoantes laterais, ancorada em dados qualitativos (e.g., visualizações 3D, comparação de contornos) e quantitativos que incluem áreas, funções de área do trato vocal, extensão e área das passagens laterais, avaliação de efeitos contextuais e posicionais, etc. No que respeita à velarização da lateral alveolar /l/, os resultados apontam para um /l/ velarizado independentemente da sua posição silábica. Relativamente ao /L/, em relação ao qual a informação disponível era escassa, foi possível verificar que a sua articulação é bastante mais anteriorizada do que tradicionalmente descrito e também mais extensa do que a da lateral alveolar. A resolução temporal de 72 ms conseguida com as aquisições de RM em tempo real, revelou-se adequada para o estudo das características dinâmicas das vogais nasais, nomeadamente, aspetos como a duração do gesto velar, gesto oral, coordenação entre gestos, etc. complementando e corroborando resultados, já existentes para o PE, obtidos com recurso a outras técnicas instrumentais. Para além disso, foram obtidos novos dados de produção relevantes para melhor compreensão da nasalidade (variação área nasal/oral no tempo, proporção nasal/oral). Neste estudo, fica patente a versatilidade e potencial da RM para o estudo da produção de fala, com contributos claros e importantes para um melhor conhecimento da articulação do Português, para a evolução de modelos de síntese de voz, de base articulatória, e para aplicação futura em áreas mais clínicas (e.g., perturbações da fala).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wireless communication technologies have become widely adopted, appearing in heterogeneous applications ranging from tracking victims, responders and equipments in disaster scenarios to machine health monitoring in networked manufacturing systems. Very often, applications demand a strictly bounded timing response, which, in distributed systems, is generally highly dependent on the performance of the underlying communication technology. These systems are said to have real-time timeliness requirements since data communication must be conducted within predefined temporal bounds, whose unfulfillment may compromise the correct behavior of the system and cause economic losses or endanger human lives. The potential adoption of wireless technologies for an increasingly broad range of application scenarios has made the operational requirements more complex and heterogeneous than before for wired technologies. On par with this trend, there is an increasing demand for the provision of cost-effective distributed systems with improved deployment, maintenance and adaptation features. These systems tend to require operational flexibility, which can only be ensured if the underlying communication technology provides both time and event triggered data transmission services while supporting on-line, on-the-fly parameter modification. Generally, wireless enabled applications have deployment requirements that can only be addressed through the use of batteries and/or energy harvesting mechanisms for power supply. These applications usually have stringent autonomy requirements and demand a small form factor, which hinders the use of large batteries. As the communication support may represent a significant part of the energy requirements of a station, the use of power-hungry technologies is not adequate. Hence, in such applications, low-range technologies have been widely adopted. In fact, although low range technologies provide smaller data rates, they spend just a fraction of the energy of their higher-power counterparts. The timeliness requirements of data communications, in general, can be met by ensuring the availability of the medium for any station initiating a transmission. In controlled (close) environments this can be guaranteed, as there is a strict regulation of which stations are installed in the area and for which purpose. Nevertheless, in open environments, this is hard to control because no a priori abstract knowledge is available of which stations and technologies may contend for the medium at any given instant. Hence, the support of wireless real-time communications in unmanaged scenarios is a highly challenging task. Wireless low-power technologies have been the focus of a large research effort, for example, in the Wireless Sensor Network domain. Although bringing extended autonomy to battery powered stations, such technologies are known to be negatively influenced by similar technologies contending for the medium and, especially, by technologies using higher power transmissions over the same frequency bands. A frequency band that is becoming increasingly crowded with competing technologies is the 2.4 GHz Industrial, Scientific and Medical band, encompassing, for example, Bluetooth and ZigBee, two lowpower communication standards which are the base of several real-time protocols. Although these technologies employ mechanisms to improve their coexistence, they are still vulnerable to transmissions from uncoordinated stations with similar technologies or to higher power technologies such as Wi- Fi, which hinders the support of wireless dependable real-time communications in open environments. The Wireless Flexible Time-Triggered Protocol (WFTT) is a master/multi-slave protocol that builds on the flexibility and timeliness provided by the FTT paradigm and on the deterministic medium capture and maintenance provided by the bandjacking technique. This dissertation presents the WFTT protocol and argues that it allows supporting wireless real-time communication services with high dependability requirements in open environments where multiple contention-based technologies may dispute the medium access. Besides, it claims that it is feasible to provide flexible and timely wireless communications at the same time in open environments. The WFTT protocol was inspired on the FTT paradigm, from which higher layer services such as, for example, admission control has been ported. After realizing that bandjacking was an effective technique to ensure the medium access and maintenance in open environments crowded with contention-based communication technologies, it was recognized that the mechanism could be used to devise a wireless medium access protocol that could bring the features offered by the FTT paradigm to the wireless domain. The performance of the WFTT protocol is reported in this dissertation with a description of the implemented devices, the test-bed and a discussion of the obtained results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem como objetivos identificar e caraterizar os modos de Comunicação Mediada por Computador (CMC) utilizados nas Comunidades Online (CO), relevantes para a prática de criação visual, contextualizando-os na produção de Type Design (TD). E concetualizar um modelo de CO de prática, desenvolvida segundo uma metodologia participativa, avaliando as estratégias de dinamização e viabilização no contexto nacional. Atualmente, com a disseminação das tecnologias de informação e comunicação a prática de TD, uma atividade isolada e individual, está sujeita a um paradigma de mudança—tornar-se uma atividade de partilha cada vez maior. A investigação dividiu-se em três fases. Na primeira fase procura perceber os modos relevantes de CMC para a prática de TD. Para isso, observa-se as motivações e comportamentos dos utilizadores nestas plataformas, apoiado pela recolha de dados sobre o uso destas plataformas no contexto académico. Juntamente com o desenvolvimento e avaliação de uma experiência preliminar numa plataforma online existente. Na segunda fase, apresenta-se o modelo concetual de uma CO para a produção de TD apoiado na identificação e caraterização das Virtual Community of Practice de TD existentes. E o respetivo desenvolvimento e implementação de um protótipo funcional. Na terceira fase o protótipo foi avaliado recorrendo à participação dos utilizadores—uma amostra de Type Designers profissionais portugueses—no desenvolvimento das estratégias comunitárias segundo uma abordagem participativa de Community-Centered Development. A utilização de um Focus Group de dimensões reduzidas, e as limitações temporais da investigação prática não permitem generalizar os resultados encontrados. No entanto, os resultados revelam que quanto mais específica for a atividade da prática partilhada na CO, mais especializados e restritos devem ser os modos de CMC implementados para a comunicação e interação dos membros online. A integração dos modos de CMC sobre a comunicação assíncrona através de artefactos visuais tem um potencial de comunicação mais eficaz e satisfatório para estes utilizadores. E as barreiras à participação, apesar de poderem ser minimizadas através da inovação nos modos implementados, são um desafio de sociabilização que devem ser geridos, equilibrando a comunicação explícita, os usos, perceções e expectativas dos diferentes papéis dos membros da comunidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desulfurization is one of the most important processes in the refining industry. Due to a growing concern about the risks to human health and environment, associated with the emissions of sulfur compounds, legislation has become more stringent, requiring a drastic reduction in the sulfur content of fuel to levels close to zero (< 10 ppm S). However, conventional desulfurization processes are inefficient and have high operating costs. This scenario stimulates the improvement of existing processes and the development of new and more efficient technologies. Aiming at overcoming these shortcomings, this work investigates an alternative desulfurization process using ionic liquids for the removal of mercaptans from "jet fuel" streams. The screening and selection of the most suitable ionic liquid were performed based on experimental and COSMO-RS predicted liquid-liquid equilibrium data. A model feed of 1-hexanethiol and n-dodecane was selected to represent a jet-fuel stream. High selectivities were determined, as a result of the low mutual solubility between the ionic liquid and the hydrocarbon matrix, proving the potential use of the ionic liquid, which prevents the loss of fuel for the solvent. The distribution ratios of mercaptans towards the ionic liquids were not as favorable, making the traditional liquid-liquid extraction processes not suitable for the removal of aliphatic S-compounds due to the high volume of extractant required. This work explores alternative methods and proposes the use of ionic liquids in a separation process assisted by membranes. In the process proposed the ionic liquid is used as extracting solvent of the sulfur species, in a hollow fiber membrane contactor, without co-extracting the other jet-fuel compound. In a second contactor, the ionic liquid is regenerated applying a sweep gas stripping, which allows for its reuse in a closed loop between the two membrane contactors. This integrated extraction/regeneration process of desulfurization produced a jet-fuel model with sulfur content lower than 2 ppm of S, as envisaged by legislation for the use of ultra-low sulfur jet-fuel. This result confirms the high potential for development of ultra-deep desulfurization application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The fast increase in the energy’s price has brought a growing concern about the highly expensive task of transporting water. By creating an hydraulic model of the Water Supply System’s (WSS) network and predicting its behaviour, it is possible to take advantage of the energy’s tariffs, reducing the total cost on pumping activities. This thesis was developed, in association with a technology transfer project called the E-Pumping. It focuses on finding a flexible supervision and control strategy, adaptable to any existent Water Supply System (WSS), as well as forecasting the water demand on a time period chosen by the end user, so that the pumping actions could be planned to an optimum schedule, that minimizes the total operational cost. The OPC protocol, associated to a MySQL database were used to develop a flexible tool of supervision and control, due to their adaptability to function with equipments from various manufacturers, being another integrated modular part of the E-Pumping project. Furthermore, in this thesis, through the study and performance tests of several statistical models based on time series, specifically applied to this problem, a forecasting tool adaptable to any station, and whose model parameters are automatically refreshed at runtime, was developed and added to the project as another module. Both the aforementioned modules were later integrated with an Graphical User Interface (GUI) and installed in a pilot application at the ADDP’s network. The implementation of this software on WSSs across the country will reduce the water supply companies’ running costs, improving their market competition and, ultimately, lowering the water price to the end costumer.