960 resultados para definição lexicográfica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi efetuar um estudo de otimização dos parâmetros de exposição do mamógrafo digital da marca GE, modelo Senographe DS instalado no Instituto Português de Oncologia de Coimbra (IPOC) baseado numa análise contraste detalhe e avaliar o impacto do resultado obtido na melhoria da capacidade de detecção clínica das estruturas da mama. O mamógrafo em estudo dispõe de um sistema de controle automático da exposição designado por sistema AOP (Automatic Optimization of Parameters) que foi otimizado pelo fabricante a partir da razão contraste ruído. O sistema AOP é usado na prática clínica na quase totalidade dos exames de mamografia realizados no IPOC. Tendo em conta o tipo de estrutura que se pretende visualizar na mamografia, nomeadamente estruturas de baixo contraste como as massas e estruturas de dimensão submilimétrica como as microcalcificações, a análise contraste detalhe poderia constituir uma abordagem mais adequada para o estudo de otimização dos parâmetros de exposição uma vez que permitiria uma avaliação conjunta do contraste, da resolução espacial e do ruído da imagem. Numa primeira fase do trabalho foi efetuada a caracterização da prática clínica realizada no mamógrafo em estudo em termos de espessura de mama comprimida “típica”, dos parâmetros técnicos de exposição e das opções de processamento das imagens aplicadas pelo sistema AOP (combinação alvo/filtro, tensão aplicada na ampola - kVp e produto corrente-tempo da ampola - mAs). Numa segunda fase foi realizado um estudo de otimização da qualidade da imagem versus dose na perspectiva dos parâmetros físicos. Para tal foi efetuada uma análise contrastedetalhe no objeto simulador de mama CDMAM e usada uma figura de mérito definida a partir do IQFinv (inverted image quality figure) e da dose glandular média. Os resultados apontaram para uma diferença entre o ponto ótimo resultante do estudo de otimização e o ponto associado aos parâmetros de exposição escolhidos pelo sistema AOP, designadamente no caso da mama pequena. Sendo a qualidade da imagem na perspectiva clínica um conceito mais complexo cujo resultado da apreciação de uma imagem de boa qualidade deve ter em conta as diferenças entre observadores, foi efetuado na última parte deste trabalho um estudo do impacto clínico da proposta de otimização da qualidade de imagem. A partir das imagens realizadas com o objeto simulador antropomórfico TOR MAM simulando uma mama pequena, seis médicos(as) radiologistas com mais de 5 anos de experiência em mamografia avaliaram as imagens “otimizadas” obtidas utilizando-se os parâmetros técnicos de exposição resultantes do estudo de otimização e a imagem resultante da escolha do sistema AOP. A análise estatística das avaliações feitas pelos médicos indica que a imagem “otimizada” da mama pequena apresenta uma melhor visualização das microcalcificações sem perda da qualidade da imagem na deteção de fibras e de massas em comparação com a imagem “standard”. Este trabalho permitiu introduzir uma nova definição da figura de mérito para o estudo de otimização da qualidade da imagem versus dose em mamografia. Permitiu também estabelecer uma metodologia consistente que pode facilmente ser aplicada a qualquer outro mamógrafo, contribuindo para a área da otimização em mamografia digital que é uma das áreas mais relevantes no que toca à proteção radiológica do paciente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, as tecnologias que dão suporte à robótica avançaram expressivamente. É possível encontrar robôs de serviço nos mais variados campos. O próximo passo é o desenvolvimento de robôs inteligentes, com capacidade de comunicação em linguagem falada e de realizar trabalhos úteis em interação/cooperação com humanos. Torna-se necessário, então, encontrar um modo de interagir eficientemente com esses robôs, e com agentes inteligentes de maneira geral, que permita a transmissão de conhecimento em ambos os sentidos. Partiremos da hipótese de que é possível desenvolver um sistema de diálogo baseado em linguagem natural falada que resolva esse problema. Assim, o objetivo principal deste trabalho é a definição, implementação e avaliação de um sistema de diálogo utilizável na interação baseada em linguagem natural falada entre humanos e agentes inteligentes. Ao longo deste texto, mostraremos os principais aspectos da comunicação por linguagem falada, tanto entre os humanos, como também entre humanos e máquinas. Apresentaremos as principais categorias de sistemas de diálogo, com exemplos de alguns sistemas implementados, assim como ferramentas para desenvolvimento e algumas técnicas de avaliação. A seguir, entre outros aspectos, desenvolveremos os seguintes: a evolução levada a efeito na arquitetura computacional do Carl, robô utilizado neste trabalho; o módulo de aquisição e gestão de conhecimento, desenvolvido para dar suporte à interação; e o novo gestor de diálogo, baseado na abordagem de “Estado da Informação”, também concebido e implementado no âmbito desta tese. Por fim, uma avaliação experimental envolvendo a realização de diversas tarefas de interação com vários participantes voluntários demonstrou ser possível interagir com o robô e realizar as tarefas solicitadas. Este trabalho experimental incluiu avaliação parcial de funcionalidades, avaliação global do sistema de diálogo e avaliação de usabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Graças aos desenvolvimentos na área da síntese de nanomaterais e às potentes técnicas de caracterização à nanoescala conseguimos hoje visualizar uma nanopartícula (NP) como um dispositivo de elevado potencial terapêutico. A melhoria da sua efectividade terapêutica requer no entanto o aprofundamento e sistematização de conhecimentos, ainda muito incipientes, sobre toxicidade, selectividade, efeitos colaterais e sua dependência das próprias características físico-químicas da NP em análise. O presente trabalho, elegendo como alvo de estudo uma substância considerada biocompatível e não tóxica, a hidroxiapatite (Hap), pretende dar um contributo para esta área do conhecimento. Definiram-se como metas orientadoras deste trabalho (i) estudar a síntese de nanoparticulas de Hap (Hap NP), e a modificação das características físico-químicas e morfológicas das mesmas através da manipulação das condições de síntese; (ii) estudar a funcionalização das Hap NP com nanoestruturas de ouro e com ácido fólico, para lhes conferir capacidades acrescidas de imagiologia e terapêuticas, particularmente interessantes em aplicações como o tratamento do cancro (iii) estudar a resposta celular a materiais nanométricos, com propriedades físico-químicas diversificadas. No que se refere à síntese de Hap NP, comparam-se dois métodos de síntese química distintos, a precipitação química a temperatura fisiológica (WCS) e a síntese hidrotérmica (HS), em meios aditivados com ião citrato. A síntese WCS originou partículas de tamanho nanométrico, com uma morfologia de agulha, pouco cristalinas e elevada área superficial especifica. A síntese HS à temperatura de 180ºC permitiu obter partículas de dimensões também nanométricas mas com área específica inferior, com morfologia de bastonete prismático com secção recta hexagonal e elevada cristalinidade. Com o objectivo de aprofundar o papel de algumas variáveis experimentais na definição das características finais das partículas de hidroxiapatite, designadamente o papel do ião citrato (Cit), variou-se a razão molar [Cit/Ca] da solução reagente e o tempo de síntese. Demonstrou-se que o ião citrato e outras espécies químicas resultantes da sua decomposição nas condições térmicas (180ºC) de síntese tem um papel preponderante na velocidade de nucleação e de crescimento dessas mesmas partículas e por conseguinte nas características físico-químicas das mesmas. Elevadas razões [Cit/Ca] originam partículas de dimensão micrométrica cuja morfologia é discutida no contexto do crescimento com agregação. Com o objectivo de avaliar a citotoxicidade in vitro das nanopartículas sintetizadas procedeu-se à esterilização das mesmas. O método de esterilização escolhido foi a autoclavagem a 121º C. Avaliou-se o impacto do processo de esterilização nas características das partículas, verificando-se contrariamente às partículas WCS, que as partículas HS não sofrem alterações significativas de morfologia, o que se coaduna com as condições de síntese das mesmas, que são mais severas do que as de esterilização. As partículas WCS sofrem processos de dissolução e recristalização que se reflectem em alterações significativas de morfologia. Este estudo demonstrou que a etapa de esterilização de nanopartículas para aplicações biomédicas, por autoclavagem, pode alterar substancialmente as propriedades das mesmas, sendo pois criticamente importante caracterizar os materiais após esterilização. Os estudos citotoxicológicos para dois tipos de partículas esterilizadas (HSster e WCSster) revelaram que ambas apresentam baixa toxicidade e possuem potencial para a modelação do comportamento de células osteoblásticas. Tendo em vista a funcionalização da superfície das Hap NP para multifunções de diagnóstico e terapia exploraram-se condições experimentais que viabilizassem o acoplamento de nanopartículas de ouro à superfície das nanopartículas de Hidroxiapatite (Hap-AuNP). Tirando partido da presença de grupos carboxílicos adsorvidos na superfície das nanopartículas de Hap foi possível precipitar partículas nanométricas de ouro (1,5 a 2,5 nm) na superfície das mesmas adaptando o método descrito por Turkevich. No presente trabalho as nanopartículas de Hap funcionaram assim como um template redutor do ouro iónico de solução, propiciando localmente, na superfície das próprias nanopartículas de Hap, a sua redução a ouro metálico. A nucleação do ouro é assim contextualizada pelo papel redutor das espécies químicas adsorvidas, designadamente os grupos carboxílicos derivados de grupos citratos que presidiram à síntese das próprias nanopartículas de Hap. Estudou-se também a funcionalização das Hap NP com ácido fólico (FA), uma molécula biologicamente interessante por ser de fácil reconhecimento pelos receptores existentes em células cancerígenas. Os resultados confirmaram a ligação do ácido fólico à superfície das diferentes partículas produzidas HS e Hap-AuNPs. Graças às propriedades ópticas do ouro nanométrico (efeito plasmão) avaliadas por espectroscopia vis-UV e às potencialidades de hipertermia local por conversão fototérmica, as nanoestruturas Hap-AuNPs produzidas apresentam-se com elevado interesse enquanto nanodispositivos capazes de integrar funções de quimio e terapia térmica do cancro e imagiologia. O estudo da resposta celular aos diversos materiais sintetizados no presente trabalho foi alvo de análise na tentativa de se caracterizar a toxicidade dos mesmos bem como avaliar o seu desempenho em aplicações terapêuticas. Demonstrou-se que as Hap NP não afectam a proliferação das células para concentrações até 500 g/ml, observando-se um aumento na expressão genética da BMP-2 e da fosfatase alcalina. Verificou-se também que as Hap NP são susceptíveis de internalização por células osteoblásticas MG63, apresentando uma velocidade de dissolução intracelular relativamente reduzida. A resposta celular às Hap-AuNP confirmou a não citotoxicidade destas partículas e revelou que a presença do ouro na superfície das Hap NP aumenta a taxa proliferação celular, bem como a expressão de parâmetros osteogénicos. No seu conjunto os resultados sugerem que os vários tipos de partículas sintetizadas no presente estudo apresentam também comportamentos interessantes para aplicações em engenharia de tecido ósseo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho pretende auxiliar o processo de consolidação do conceito de sustentabilidade no seio das organizações. Partindo de ferramentas de gestão e avaliação já existentes, esta tese sugere a sua integração numa única metodologia, ultrapassando desse modo as limitações e potenciando as suas capacidades enquanto ferramentas isoladas. O modelo proposto para o Sistema de Gestão da Sustentabilidade (SGS) integra assim: o conceito de melhoria contínua característico dos sistemas de gestão normalizados; a capacidade de tradução da perspetiva estratégica da gestão para o plano operacional, característica do Business Scorecard (BSC); e, por fim, a avaliação emergética é ainda utilizada como uma ferramenta de avaliação da sustentabilidade de sistemas. Um objetivo secundário desta tese prende-se com o desenvolvimento de um procedimento para a realização da análise emergética de um sistema. Depois de analisada a literatura referente à utilização da análise emergética, identificou-se como necessária a definição de um procedimento normalizado, adotando um conjunto de tarefas e um formato de apresentação de resultados que permita disseminar o conceito e tornar a ferramenta mais “utilizável”. Por outro lado, procurou-se dotar o procedimento com um conjunto de indicações que permitem ultrapassar limitações e inconvenientes apontados pelos críticos mas também utilizadores do método, nomeadamente: problemas de dupla contagem, cálculo da incerteza da análise e critérios de qualidade da informação utilizada. O modelo dos sistemas de gestão normalizados apresenta um papel central na metodologia proposta. O conceito de “melhoria contínua” afigura-se como fundamental num sistema que pretende implementar o conceito “desenvolvimento sustentável” e avaliar o seu desempenho à luz do mesmo. Assim, o ciclo Plan-Do-check-Act (PDCA) deve ser utilizado para implementar o SGS de acordo com uma Política para a Sustentabilidade que a organização deve desenvolver. Definida a Política, o modelo baseia-se então no ciclo PDCA: fase de planeamento; fase de implementação; fase de verificação; e fase de revisão. É na fase de planeamento do SGS que se sugere a introdução das outras duas ferramentas: a análise emergética (AEm) e o BSC. A fase de planeamento do modelo de SGS proposto neste trabalho foi aplicada à Universidade de Aveiro (UA), incluindo a definição de uma Política para a Sustentabilidade e o planeamento estratégico e operacional. A avaliação emergética à UA foi realizada recorrendo ao procedimento desenvolvido nesta tese e permitiu caracterizar e avaliar os fluxos de recursos que a “alimentam” sob uma só unidade, atribuindo deste modo graus de importância aos diferentes recursos utilizados. A informação representa 96% do total de recursos utilizados na UA, quando avaliados sob o ponto de vista emergética. Para além da informação, os fluxos financeiros representam a maior fatia do orçamento emergético da UA, grande parte dos quais serve para sustentar os serviços prestados pelo corpo docente da UA. Analisando valores históricos de 3 indicadores de desempenho emergético, observa-se que a UA não regista uma evolução positiva em nenhum dos indicadores: a emergia utilizada nos edifícios tem-se mantido mais ou menos constante; a retribuição emergética da UA para a sociedade, avaliada sobre a forma de diplomados, tem diminuído; e a relação emergética entre professores e alunos tem também diminuído, facto que pode refletir-se na qualidade dos “produtos” da UA. Da aplicação do SGS à UA regista-se: a adequabilidade do ciclo PDCA à implementação de um SGS; a capacidade da AEm “obrigar” a organização a adotar uma abordagem sistémica da sua atividade, resultando numa visão mais aprofundada da sua relação com o contexto ambiental, económico e social em que se insere; a importância da visão estratégica e da sua tradução em termos operacionais na fase de planeamento de um SGS; e, por fim, a capacidade de adaptação e dupla funcionalidade (implementação e avaliação) do modelo de SGS proposto. A metodologia de SGS proposta nesta tese, sendo direcionada para todo o tipo de organizações, não se desvirtua quando aplicada ao contexto específico das instituições de ensino superior e permite implementar e avaliar o conceito “desenvolvimento sustentável” nas quatro dimensões da universidade (Educação, Investigação, Operação; Relação com as partes interessadas).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho que apresentamos, “O Quadro Interativo no ensino do Português: dos recursos aos discursos”, situa-se na área do Multimédia em Educação e, mais especificamente, no domínio da tecnologia e pedagogia em sala de aula. Partimos de um projeto de implementação de quadros interativos em agrupamentos/escolas do interior do país, associado a um Centro de Formação e procurámos evidenciar a forma como essa tecnologia levou à introdução de recursos digitais de aprendizagem na unidade curricular de Português. Nesse âmbito, fizemos uma análise sobre os tipos, funcionalidades e usos pelos professores e estudantes no processo de ensino e aprendizagem com os QIM. Analisámos também algumas estratégias de utilização no desenvolvimento de competências essenciais da língua e a interação que proporcionaram no ambiente educativo. Para percebermos as razões e fundamentos que estiveram na base da investigação, procurámos, na primeira parte do nosso trabalho, partir de três vertentes de uma conjuntura que fundamenta a aprendizagem no século XXI: a passagem de uma sociedade da informação para uma sociedade do conhecimento como um processo que radica numa comunicação em rede e na criação de conhecimento(s) através de recursos digitais; o desenvolvimento de competências adequadas e que conduz os indivíduos para ambientes de aprendizagem com as tecnologias; e numa Escola mais familiarizada com as tecnologias, onde o ato de educar cria novos desafios a todos os agentes educativos. Notámos que a capacidade de mobilizar a informação e o conhecimento na rede reclama atitudes dinâmicas, flexíveis e adaptadas à multiculturalidade. Esta característica favorece a construção de aprendizagens multifacetadas, a inclusão progressiva do individuo na “aldeia global”, tornando-o também cada vez mais criativo e produtivo. A promoção de espaços interativos de aprendizagem facilita esse processo e o conhecimento desenvolve-se numa interação social mediada por tecnologias que nos fazem participar nessa multiculturalidade, diversidade do universo e nas histórias pessoais e coletivas. Num ambiente com estas características, torna-se necessário passar de um conceito de ensino declarado nos saberes básicos ou em conhecimentos factuais para uma estratégia de aprendizagem que incida sobre o desenvolvimento e aquisição de outras habilidades. A aquisição de saberes no âmbito da leitura, da oralidade e da escrita tornamse importantes para os indivíduos porquanto esses saberes transformam-se em competências transversais para outros domínios e literacias. Tentámos mostrar que a escola do futuro terá de ser um espaço educativo que implique ambientes de aprendizagem onde vão confluir várias ferramentas tecnológicas, que arrastam consigo outros recursos e outras possibilidades de acesso à informação e à construção de conhecimento. Para isso, a escola está obrigada a mudar alguns conceitos e estratégias e a focar-se no desenvolvimento de competências para a vida. A definição de recurso educativo ou recurso de aprendizagem e a aceção do quadro interativo como um recurso tecnológico, que envolve outros recursos, digitais e multimédia, levou-nos a concluir sobre as potenciais mais-valias deste equipamento. Para além da apresentação da informação, da orientação da atenção e das aprendizagens para o grupo - turma, abre-se a possibilidade de relacionar e organizar conteúdos digitais multimédia, criar conhecimento e desenvolver competências de acordo com os interesses dos públicos em fase de escolarização. Reclama-se um padrão de qualidade nos recursos, avaliados e estruturados em função dos conteúdos, objetivos, desempenhos e currículos de aprendizagem dos aprendentes. Definimos o paradigma digital e as dinâmicas de comunicação e interação proporcionadas pelo quadro interativo. Concluímos que o QIM produz efeitos positivos sobre a participação dos estudantes, evidenciada por um comportamento mais positivo face às tarefas a realizar em sala de aula. Contudo, o papel desta ferramenta e dos recursos utilizados requerem dos professores e dos ambientes educativos novas práticas e modelos de comunicação mais interativos. A informação e o conhecimento tornam-se mais fluidos, diversos e atuais. Fluxos variados de informação em vários suportes e formatos ou pesquisas em tempo real podem ser facilmente incorporados, acedidos e manipulados durante as aulas. A partilha de materiais e recursos retroalimenta uma rede de informação e troca de conhecimentos, amplia a aprendizagem e cria comunidades de prática com as tecnologias. A inclusão do QIM, no contexto do ensino e aprendizagem do Português, promoveu a literacia digital; o desenvolvimento de recursos digitais de aprendizagem; criou ambientes educativos modernos, mais apelativos, criativos e inovadores. Conduziu a uma mudança de práticas, que se querem mais ajustadas às necessidades e expectativas dos estudantes, aos desafios dos novos tempos e aos objetivos de uma educação que reforça o papel e autonomia dos indivíduos no processo de aprendizagem. Por isso, a lógica de projeto ou as dinâmicas de trabalho em projeto devem conduzir a dinâmicas de escola que elevem os comportamentos dos professores para se familiarizarem com a tecnologia, mas também para desenvolverem competências tecnológicas e profissionais coadunadas com contextos educativos atuais. Os resultados disponíveis mostram um quadro predominantemente positivo das possibilidades educativas dos QIM no ensino do Português. O QIM apresenta um conjunto de potencialidades pedagógicas; incentiva ao uso de recursos digitais em vários formatos e com várias finalidades; propicia estratégicas de construção e reconstrução dos percursos de aprendizagem que levam ao desenvolvimento de competências essenciais da língua. Porém, há ainda alguns aspetos que necessitam de ser revistos para tornar os QIM ainda mais eficazes como ferramenta de ensino e aprendizagem em sala de aula. Assim: i. A introdução de recursos digitais de aprendizagem na sala de aula deve ser um processo bem refletido que conduza e valorize a aproximação do professor e dos estudantes, visto que ambos estão perante uma nova realidade de conceitos, representações e formatos que carecem de habilidades, capacidades, comportamentos e literacias próprias; ii. A transformação do ensino, no que respeita a uma aprendizagem mais autónoma e individualizada, não está generalizada com a introdução dos QIM nos contextos de aprendizagem observados. Parece haver um incentivo para abordagens tradicionais centradas no professor e nos conteúdos, uma vez que a aquisição de conhecimentos está também condicionada por um sistema educativo que considera esses conteúdos estritamente necessários para o desempenho de determinadas tarefas; iii. Pelos vários níveis de análise do discurso pedagógico que se institui com os QIM, o tipo que melhor o define é ainda o tipo unidirecional. O discurso interativo, tão badalado pelos modelos comunicacionais modernos e pelos conceitos inerentes às tecnologias interativas, parece ainda não ter sido bem compreendido e explorado nos benefícios que os QIM, os recursos digitais interativos e as tecnologias em geral podem trazer ao processo de ensino e aprendizagem do Português no 3º CEB.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho pretende contribuir para a definição de um paradigma teórico para o estudo do romance-diário em Portugal, assim como reconstituir a sua linhagem e incidência na narrativa portuguesa contemporânea. Apresenta-se, num primeiro momento, uma cartografia diacrónica da emergência e implantação do subgénero no campo literário português, desde finais do século XIX até à contemporaneidade, destacando os processos complementares de imitação e variação genológicas. Num segundo momento, partindo de um corpus constituído por cinco romances portugueses publicados nas últimas décadas do século XX, pretende-se averiguar algumas das modulações contemporâneas do romance-diário, por forma a demonstrar a capacidade de sobrevivência e renovação proteica da ficção diarística.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os incêndios florestais, associados ao abandono do espaço rural, a pequena propriedade florestal e o desinteresse e o absentismo dos proprietários florestais têm sido apontados como fatores que têm afetado a sustentabilidade das florestas em Portugal. Apesar da formulação de políticas e de instrumentos de planeamento e de gestão florestal para lidar com estes constrangimentos, são ainda escassos os progressos para uma Gestão Florestal Sustentável. A nível internacional e europeu, a participação dos agentes já representa um aspeto-chave no processo de definição e de implementação de estratégias que promovam a multifuncionalidade da floresta, mas também se adeqúem às necessidades e aos interesses dos agentes locais. A temática da tese esteve focada nesta discussão, argumentando que existe uma escassa participação dos agentes nos processos de tomada de decisão relativos ao setor florestal. O principal objetivo da investigação foi o desenvolvimento de uma metodologia participativa para a discussão e negociação de estratégias locais para a Gestão Florestal Sustentável, que maximizem o potencial produtivo e o papel sócio-ambiental das florestas, diminuam o risco de incêndio e promovam o crescente interesse e participação dos agentes locais na gestão florestal. A tese está estruturada em três partes. A primeira parte apresenta uma avaliação do sector florestal nacional, com base numa revisão bibliográfica e numa comparação de indicadores, políticas e instrumentos de planeamento e gestão florestal (Capítulo 2) e com base num estudo de perceção social desenvolvido numa área de estudo localizada na região Centro de Portugal. Este estudo analisa as perceções técnicas (decisores políticos e técnicos) e sociais (proprietários florestais e outros membros da comunidade local) sobre as florestas, a gestão florestal e os incêndios florestais (Capítulo 4). As ‘Zonas de Intervenção Florestal’, enquanto ferramenta recente para a cooperação e organização dos proprietários e produtores florestais, foram também analisadas (Capítulo 3). A segunda parte da tese é dedicada à análise de processos de participação pública, com base numa revisão bibliográfica sobre os benefícios, níveis, abordagens e métodos de participação (Capítulo 5) e numa avaliação de processos de participação pública desenvolvidos em Portugal (Capítulo 6). A terceira parte da tese foca-se no desenho e no teste da metodologia participativa proposta no âmbito desta tese (Capítulo 7) e na formulação de algumas orientações para melhoria dos processos participativos na gestão florestal (Capítulo 8). Os resultados confirmaram a centralidade dos incêndios florestais e dos fatores associados ao contexto socioeconómico (e.g. despovoamento e envelhecimento populacional, absentismo, falta de gestão florestal, estrutura fundiária) como os principais problemas que afetam a floresta na região Centro de Portugal. A organização e cooperação dos proprietários florestais emergiu como solução possível para lidar com estas ameaças e promover a multifuncionalidade da floresta, sendo essencial aumentar o conhecimento e a participação dos agentes nas decisões associadas à floresta. É proposta uma ferramenta para esta participação, centrada no contexto local e facilmente utilizável por todos os agentes. A implementação da metodologia participativa revelou o seu potencial no desenvolvimento de uma participação equitativa e inclusiva dos múltiplos agentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O actual paradigma inclusivo associado a um enquadramento sociocultural da investigação em Didáctica reposiciona a escrita por iniciativa própria num referencial mais amplo, no qual o aprender a escrever se cruza com a relação com o (saber) escrever de todos os alunos. Neste enquadramento, torna-se possível conjugar a centralidade que a escrita ocupa (i) nos percursos escolares dos alunos, (ii) na definição das opções metodológicas dos professores e (iii) nas orientações programáticas estabelecidas para todo o ensino básico, confrontando-a com as características dos suportes de escrita utilizados em contexto escolar. Tais suportes são elementos essenciais porque constituem uma memória que viabiliza a partilha, a reformulação e a reflexão. É também nesse sentido que interpretamos o Programa de Língua Portuguesa para o 1.º Ciclo Ensino Básico quando propõe que cada aluno tenha «um caderno onde possa fazer tentativas de escrita, escrever como souber, o que quiser, quando quiser». Daí, a nossa opção por realizar uma investigação de cariz interpretativo centrada nas opções metodológicas do(s) professor(es) e na relação com a escrita subjacente às produções dos alunos, questionando os sentidos e as práticas perceptíveis na utilização de cadernos individuais de escrita no 1.º Ciclo do Ensino Básico. Os resultados obtidos junto de três turmas, ao longo do terceiro e quarto anos de escolaridade, destacam a diversidade de dinâmicas passíveis de serem estabelecidas em cada grupo e a expansão da gama de géneros de textos que, claramente, surge associada a uma crescente afirmação intencional do lugar dos alunos enquanto sujeitos que querem e sabem dizer de si, reflectindo acerca do seu próprio agir, entre pares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A informação inerente aos medicamentos no processo de medicação e prescrição tem revelado insuficiências relativamente às necessidades do utilizador. Este projecto aborda essas dificuldades e procura contribuir, através do design e avaliação de pictogramas farmacêuticos, para um melhor acesso das pessoas à informação, oral e escrita, prestada por médicos, farmacêuticos e pela literatura inclusa dos medicamentos. Verificámos que, nos últimos 40 anos, se desenvolveram quase mil representações gráficas, provenientes de 20 países, sobre mensagens relativas a perigos, precauções e informações de como tomar o medicamento. Com base nesse conjunto mundial colectado, tão alargado e diversificado, procedeu-se à analise, agrupamento e comparação dessas representações com vista a apurar a diversidade gráfica e escrita das 75 mensagens farmacêuticas identificadas nesta investigação. Foi seguidamente consultada uma centena de profissionais de saúde dentro da área farmacêutica para selecção e definição da informação a ser projectada em pictogramas. Algumas das mensagens seleccionadas foram, por ordem de importância: “Não aplicar nos olhos”, “Não beber álcool enquanto estiver a tomar o medicamento” e “Guardar no frigorífico”. Foi concebido um sistema PictoPharma, bilingue (Português e Inglês), composto por 32 pictogramas farmacêuticos, com várias possibilidades cromáticas de acordo com as diversas aplicações para suportes de impressão e ecrã (Registo de Propriedade Industrial – marca e design). Embora o sistema projectado possa aumentar a capacidade de recordar as informações importantes pelas pessoas em geral, os públicos-alvo que mais beneficiarão com o sistema são: pessoas que apresentam especiais dificuldades de leitura - analfabetos, pessoas com nenhum conhecimento ou um conhecimento limitado da língua; pessoas com dificuldades para relembrar e / ou compreender o tratamento - população envelhecida, sob múltiplos tratamentos ou com menores capacidades intelectuais; pessoas que não falam a língua local ou são de uma cultura diferente - estrangeiros, turistas, imigrantes. Foram feitos testes de usabilidade com os públicos-alvo específicos, de forma a verificar a percentagem de compreensão dos pictogramas, sem a respectiva legenda e de acordo com as normas internacionais de normalização. Os resultados dos testes indicaram que metade do sistema atingiu os 100% de compreensão e a outra metade atingiu mais de 88%. O sistema PictoPharma criado caracteriza-se: pelo design gráfico no seu contraste visual e na possibilidade de leitura numa escala reduzida; pelo conceito de familiaridade gráfica representada no seu conjunto, de forma a tornar os pictogramas mais facilmente memorizáveis; pelo estudo feito para minimizar especificidades culturais visuais; pelas diversas aplicações possíveis na indústria; pelas direcções que aponta para futuras investigações sobre as escolhas visuais culturais inerentes a um projecto de design com este.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

For the actual existence of e-government it is necessary and crucial to provide public information and documentation, making its access simple to citizens. A portion, not necessarily small, of these documents is in an unstructured form and in natural language, and consequently outside of which the current search systems are generally able to cope and effectively handle. Thus, in thesis, it is possible to improve access to these contents using systems that process natural language and create structured information, particularly if supported in semantics. In order to put this thesis to test, this work was developed in three major phases: (1) design of a conceptual model integrating the creation of structured information and making it available to various actors, in line with the vision of e-government 2.0; (2) definition and development of a prototype instantiating the key modules of this conceptual model, including ontology based information extraction supported by examples of relevant information, knowledge management and access based on natural language; (3) assessment of the usability and acceptability of querying information as made possible by the prototype - and in consequence of the conceptual model - by users in a realistic scenario, that included comparison with existing forms of access. In addition to this evaluation, at another level more related to technology assessment and not to the model, evaluations were made on the performance of the subsystem responsible for information extraction. The evaluation results show that the proposed model was perceived as more effective and useful than the alternatives. Associated with the performance of the prototype to extract information from documents, comparable to the state of the art, results demonstrate the feasibility and advantages, with current technology, of using natural language processing and integration of semantic information to improve access to unstructured contents in natural language. The conceptual model and the prototype demonstrator intend to contribute to the future existence of more sophisticated search systems that are also more suitable for e-government. To have transparency in governance, active citizenship, greater agility in the interaction with the public administration, among others, it is necessary that citizens and businesses have quick and easy access to official information, even if it was originally created in natural language.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização da tecnologia como mediadora do processo de ensino e de aprendizagem tem sido um aspeto incontornável no Ensino Superior e nas prioridades institucionais. A sua utilização tem sido, no entanto, mais norteada por um paradigma de disponibilização em vez de ser norteada por um paradigma de potenciação. Este estudo procura discutir o papel da tecnologia como potenciadora da aprendizagem, através da introdução de um conceito de aprendizagem potenciada pela tecnologia. Nesse sentido o estudo procura apresentar um referencial de qualidade dos pressupostos para a existência de uma aprendizagem potenciada pela tecnologia que permita orientar os diversos atores para práticas de qualidade na utilização da tecnologia e facilitar o desenho de instrumentos de avaliação, autoavaliação e monitorização. Assente num método de Grounded Theory, sustentado em abordagens interpretativas e qualitativas, o estudo procura identificar os alicerces da aprendizagem potenciada pela tecnologia através da identificação de instâncias e da formulação de conceitos reveladores de práticas de qualidade. Paralelamente, o estudo desenha um quadro referencial de qualidade que procura identificar dimensões e indicadores que permitam avaliar a qualidade dos pressupostos fundamentais para a concretização de uma aprendizagem potenciada pela tecnologia. O quadro referencial, assim como a definição do conceito de aprendizagem potenciada pela tecnologia, foi sustentado metodologicamente em dois estudos: (i) um estudo teórico, no qual foram identificados os alicerces da aprendizagem potenciada pela tecnologia no Ensino Superior, assim como uma revisão de modelos e de instrumentos nacionais e internacionais; e (ii) um estudo empírico que inclui a realização de entrevistas individuais a docentes, membros de órgãos de gestão e staff de suporte; Focus-Group a estudantes; e entrevistas a

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem como principal objetivo analisar as características, a importância e o papel da inovação territorial em turismo e o seu impacto no desenvolvimento dos destinos. Consiste num estudo multidisciplinar suportado numa exaustiva revisão da literatura sobre temas como desenvolvimento, inovação e modelos de inovação territorial. Com base nas principais conclusões de natureza conceptual, considerou-se o modelo dos sistemas regionais de inovação como o mais adequado para aplicação ao sistema turístico, e a constituição de redes como estruturas fundamentais para a sua operacionalização. A partir desta abordagem teórica, foi desenvolvido um quadro conceptual para a análise da inovação sistémica no sector do turismo. Esta abordagem permitiu a definição de um conjunto de hipóteses, as quais foram testadas através dos resultados da parte empírica da tese. Foram desenvolvidos dois estudos empíricos distintos, mas complementares nas regiões do Douro e de Aveiro. O primeiro teve como objetivo inquirir empresas turísticas, enquanto o segundo foi dirigido a instituições regionais com intervenção no sector do turismo ou na inovação. Os resultados obtidos conduziram a importantes conclusões sobre o desempenho das empresas e regiões em termos de inovação, os padrões de networking desenvolvidos no âmbito de processos de inovação, a importância do conhecimento existente nas regiões e os fatores específicos das mesmas para a inovação em turismo, a perceção das empresas turísticas sobre o ambiente de inovação e o seu contributo para a evolução e para o sucesso dos destinos turísticos. A tese recorre a uma abordagem quantitativa que inclui estatística descritiva e indutiva e ao método da análise de redes (sociometria). A combinação de métodos levou a importantes conclusões sobre a inovação em turismo, com uma focalização especial no que a relaciona com os sistemas regionais de inovação. As conclusões permitem avançar com um conjunto de implicações e sugestões para futuros projetos de investigação sobre o tema, bem como para a gestão dos destinos turísticos, uma vez que contribui para um maior e mais aprofundado conhecimento do fenómeno da inovação em turismo desenvolvida a nível regional. Os resultados demonstram que diferentes regiões apresentam sistemas regionais de inovação distintos. Assim, não existe um modelo único que possa ser aplicado indistintamente em todas as regiões. Contudo, as conclusões apontam para a existência de padrões e práticas que aperfeiçoam o seu funcionamento, aumentando o desempenho ao nível da inovação, bem como a competitividade global do destino.