14 resultados para mapas estratégicos
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
Com um número cada vez maior de cidadãos a viver em grandes aglomerados urbanos, as cidades necessitam de se adaptar e tornar mais inteligentes por forma a serem sustentáveis. Desta forma, o conceito de smart city implica a integração de várias dimensões da gestão da cidade, mediante uma abordagem integrada e sustentada, criando um novo mercado per si. Mas, para responder a estas necessidades e conquistar este novo mercado, as empresas têm que se organizar por forma a sustentar as suas decisões estratégicas com ferramentas que permitem a análise e avaliação deste novo paradigma. Baseado nos conceitos de smart cities/cidades inteligentes, este trabalho desenvolve um conjunto de ferramentas que permitem a análise e avaliação de novos mercados pela empresa PTInovação, criando um modelo para a implementação de um mapa de calor/heat map que apresenta as cidades com maior potencial de mercado a nível mundial. Com base neste modelo, é então efetuada uma instanciação do modelo que permite analisar 7 casos diferentes de cidades localizadas na América, África, Ásia e Europa. A partir da análise realizada, é efetuado um caso de estudo para a cidade de Cartagena das Índias, na Colômbia. Este caso de estudo efetua a análise do portfólio de oferta da PTInovação, estuda as necessidades específicas dos utilizadores locais e analisa os potenciais competidores no mercado local, permitindo a realização de uma análise SWOT/TOWS que induz a criação de um plano de ação que permite mapear o processo de entrada da empresa neste mercado.
Resumo:
O benzeno foi o primeiro poluente atmosférico carcinogénico a ser regulamentado a nível europeu. Vários trabalhos têm sido publicados demonstrando a relação deste poluente com diversos tipos de neoplasias nomeadamente decorrentes de exposições a nível ocupacional. Porém, o estudo deste poluente para concentrações atmosféricas em ambientes exteriores ainda é pouco conhecido e está em clara evolução. Neste sentido, este trabalho pretende ser um contributo para o conhecimento da relação entre o benzeno atmosférico e a incidência de patologias que afectam os tecidos linfáticos e órgãos hematopoiéticos nomeadamente linfomas de Hodgkin, linfomas de não-Hodgkin e leucemias na população residente na Área Metropolitana do Porto. Dado a quase ausência de dados de monitorização das concentrações de benzeno atmosférico actualmente em Portugal, estas foram estimadas com base na definição de uma relação entre o benzeno e o monóxido de carbono. O conhecimento das concentrações em todo o domínio de estudo baseou-se na análise dos dados da Rede Automática de Monitorização da Qualidade do Ar porém, de modo a aumentar o detalhe espacial e temporal recorreu-se à modelação atmosférica aplicando o modelo TAPM. Para perceber a evolução temporal das concentrações, a modelação foi efectuada para os anos de 1991, 2001 e 2006 com base no ano meteorológico de 2006 e emissões para os respectivos anos ao nível da freguesia. O modelo foi previamente validado de acordo com uma metodologia proposta para este tipo de modelos. Contudo, mais do que perceber qual a variação da qualidade do ar a nível exterior, é importante conhecer o impacte de fontes interiores e o seu efeito na população. Assim, desenvolveu-se um modelo de exposição e dose que permitem conhecer os valores médios populacionais. A modelação da exposição populacional é efectuada com base nos perfis de actividade-tempo, nos movimentos pendulares inter-concelhos e nas concentrações de benzeno em ambientes exteriores e interiores. Na modelação da dose é ainda possível variações por sexo e idade. Por outro lado, para o estudo das patologias em análise efectuou-se uma análise epidemiológica espacial nomeadamente no que respeita à elaboração de mapas de incidência padronizados pela idade, e estudo da associação com a exposição ao benzeno atmosférico. Os resultados indicam associação entre o benzeno e as doenças em estudo. Esta evidência é mais notória quando a análise é realizada junto às principais fontes de emissão deste poluente, vias de tráfego e postos de abastecimento de combustível. Porém, a ausência de informação limita o estudo não permitindo o controlo de potenciais variáveis de confundimento como a exposição ao fumo do tabaco. A metodologia permite efectuar uma gestão integrada da qualidade do ar exterior e interior, funcionando como uma ferramenta do apoio à decisão para elaboração de planos de prevenção de longo prazo de potenciais efeitos na saúde das populações nomeadamente para outro tipo de patologias.
Resumo:
Esta tese dedica-se ao estudo de hipermapas regulares bicontactuais, hipermapas com a propriedade que cada hiperface contacta só com outras duas hiperfaces. Nos anos 70, S. Wilson classificou os mapas bicontactuais e, em 2003, Wilson e Breda d’Azevedo classificaram os hipermapas bicontactuais no caso não-orientável. Quando esta propriedade é transferida para hipermapas origina três tipos de bicontactualidade, atendendo ao modo como as duas hiperfaces aparecem à volta de uma hiperface fixa: edge-twin, vertextwin and alternate (dois deles são o dual um do outro). Um hipermapa topológico é um mergulho celular de um grafo conexo trivalente numa superfície compacta e conexa tal que as células são 3-coloridas. Ou de maneira mais simples, um hipermapa pode ser visto como um mapa bipartido. Um hipermapa orientado regular é um triplo ordenado consistindo num conjunto finito e dois geradores, que são permutações (involuções) do conjunto tal que o grupo gerado por eles, chamado o grupo de monodromia, actua regularmente no conjunto. Nesta tese, damos uma classificação de todos os hipermapas orientados regulares bicontactuais e, para completar, reclassificamos, usando o nosso método algébrico, os hipermapas não-orientáveis bicontactuais.
Resumo:
A ilha de Santiago é a maior do arquipélago de Cabo Verde, apresenta uma área de 991 km2, com um comprimento e largura máximos de 54,9 km e 29 km, respectivamente, e 1392 m de maior altitude. As condições climáticas e a erosão são alguns dos problemas naturais do arquipélago de Cabo Verde. Além disso, a intervenção humana no ambiente superficial revela-se muitas vezes inadequada e com forte impacto. A construção em solos com aptidão agrícola ou florestal, as actividades industriais, a deposição de materiais sólidos ou líquidos de forma inadequada, as práticas agrícolas incorrectas e intensivas, o uso abusivo de pesticidas e fertilizantes, a rega com água contaminada, a sobreexploração de aquíferos que levam muitas vezes à salinização, etc. têm enorme impacto em termos de contaminação de solos, águas superficiais e subterrâneas nas áreas envolventes. Por conseguinte, o conhecimento da variabilidade geoquímica natural é fundamental para a resolução de questões de índole económica, ambiental e de ordenamento do território, médica, e jurídica. A necessidade de construir uma base de dados de geoquímica georeferenciada que caracterize o ambiente superficial da ilha de Santiago foi a principal motivação para a realização deste estudo. Realizou-se um levantamento geoquímico de 337 amostras de sedimentos de corrente e 249 amostras de solos na ilha de Santiago, tendo sido seguidas as recomendações do Projecto Internacional IGCP 259 não só na fase de amostragem, mas também nas fases seguintes de preparação, análise, tratamento dos dados e elaboração de mapas. Determinaram-se os teores, na fracção < 2 mm, para 36 elementos – 9 elementos maiores (Al, Ca, Fe, K, Mg, Mn, Na, P, Ti) e 27 elementos vestigiais (Ag, As, Au, B, Ba, Bi, Cd, Co, Cr, Cu, Ga, Hg, La, Mo, Ni, Pb, S, Sb, Sc, Se, Sr, Th, Tl, U, V, W, Zn). Efectuou-se ainda a análise textural e estudou-se a composição mineralógica de cerca de 25% das amostras. Analisaram-se, também, 103 amostras de rochas, colhidas nas várias formações da ilha de Santiago, tendo sido determinados os teores de K2O, Na2O, Fe2O3(T), MnO, Sc, Cr, Co, Zn, Ga, As, Br, Rb, Zr, Sb, Cs, Ba, Hf, Ta, W, Th e U e REE, a fim de se fazer uma comparação com os teores destes elementos encontrados nos solos e sedimentos de corrente, averiguando se a sua variação é ou não essencialmente condicionada pela geoquímica da rocha-mãe. Os padrões geoquímicos obtidos através dos mapas de distribuição espacial foram correlacionados com a natureza da rocha mãe, o tipo de solo, e ainda com algumas fontes de contaminação. A interpretação dos resultados foi realizada não só pela observação dos mapas geoquímicos, mas também após análise estatística dos conjuntos de dados obtidos, e apoiada em informação diversa disponível. A utilização da Análise de Componentes Principais permitiu distinguir associações entre elementos químicos, quer de origem geogénica quer antropogénica. Foram ainda elaborados mapas de distribuição espacial de vários índices multielementares de importância ambiental, como o Índice de Acidificação Al/(Ca+Mg+K), Índice de Combi, Índice de Avaliação de Risco Ambiental e Índices de Enriquecimento/Contaminação para vários grupos de elementos considerados como “primary pollutant metals”.
Resumo:
O tema desta tese relaciona-se com a qualificação das estratégias de desenvolvimento municipais. A emergência do planeamento territorial estratégico, como alternativa ou suplemento ao planeamento físico tradicional, reintroduziu o debate sobre a capacidade de o planeamento territorial influenciar trajectórias de desenvolvimento descentralizadas. A investigação segue, em termos teóricos e empíricos, duas linhas de inquirição: uma, relativa aos desafios colocados pelas premissas metodológicas e operativas da abordagem estratégica em planeamento territorial; a outra, diz respeito às implicações da actualização da agenda que acompanharam a emergência da abordagem estratégica, incidindo designadamente sobre a questão da competitividade territorial. A primeira lida com a validade intrínseca da abordagem estratégica e a forma como esta confronta as práticas tradicionais dominantes no planeamento territorial, em particular em Portugal. É feita uma análise do debate e dos resultados de experiências recentes em planeamento territorial estratégico e uma reflexão sobre a forma como estas podem influenciar o estabelecimento de novos referenciais para a intervenção dos sistemas de planeamento. A segunda pretende aprofundar o conhecimento sobre as competências necessárias ao planeamento, para a gestão de processos descentralizados de promoção da competitividade, e avaliar o alcance dos resultados obtidos até agora e as limitações associadas à concretização daquele objectivo. Argumenta-se que algumas das mais significativas exigências conceptuais da perspectiva estratégica de intervenção sobre o território são tratadas com ligeireza, ao mesmo tempo que, no contexto da definição de um quadro de avaliação do planeamento territorial estratégico, se espera contribuir para uma reavaliação do papel que cabe ao plano, enquanto instrumento de referência e de motivação para a acção em planeamento. Na outra parte da investigação, relativa à actualização da agenda de planeamento, é feita uma análise crítica da noção de competitividade Territorial. Usando contributos disciplinares da economia regional, da geografia económica, da sociologia económica e dos sistemas territoriais de inovação desenvolve-se um quadro conceptual que procura pôr em evidência a convergência entre as capacidades de uma prática qualificada de planeamento territorial estratégico e as necessidades e requisitos dos processos de desenvolvimento local. A análise de um conjunto de experiências municipais de concepção e implementação de planos estratégicos, representando realidades locais bastante heterogéneas em termos de dinâmica económica e de capacidades institucionais, é usada para avaliar alguns dos principais aspectos levantados em cada uma das linhas sob investigação.
Resumo:
A água subterrânea de rochas duras é uma fonte importante para fins domésticos, industriais e agrícolas e mesmo para o consumo humano. A geologia, a tectónica, a geomorfologia e as características hidrológicas controlam o fluxo, ocorrência e armazenamento das águas subterrâneas. A disponibilidade da água subterrânea no meio geológico está totalmente dependente das áreas de recarga e de descarga numa determinada bacia. A precipitação é a principal fonte de recarga em aquíferos descontínuos, enquanto que a descarga depende dos declives do terreno e dos gradientes do nível hidrostático e ainda das condições hidrogeológicas do solo. A hidrogeomorfologia é um domínio interdisciplinar emergente, que estuda as relações entre as unidades geomorfológicas e o regime das águas superficiais e subterrâneas de uma determinada área. A compreensão do papel da geomorfologia é essencial para avaliar de forma rigorosa os sistemas hidrogeológicos e os recursos hídricos. Os dados de detecção remota providenciam uma informação espacial valiosa e actualizada da superfície terrestre e dos recursos naturais. Os recentes avanços tecnológicos colocaram as técnicas de detecção remota e os sistemas de informação geográfica (SIG) numa posição cimeira como ferramentas de gestão metodológica. Foi criada, em ambiente SIG, uma base de geo-dados, essencialmente derivada da detecção remota, da cartografia e do trabalho de campo. Esta base de dados, organizada em diferentes níveis de informação, inclui uma avaliação principalmente focalizada no uso do solo, climatologia, declives, geologia, geomorfologia e hidrogeologia. No presente estudo foram cruzados diversos níveis de informação, com a geração de múltiplos mapas temáticos para atingir um quadro integrado dos diversos sectores no Norte e Centro de Portugal. Os sectores em estudo (Caldas da Cavaca, Termas de Entre-os-Rios, Águas de Arouca e Águas do Alardo) estão localizados em sistemas hidrogeológicos predominantemente constituídos por rochas graníticas, por vezes intersectadas por filões de quartzo, aplito-pegmatíticos e doleríticos. Para apoiar a elaboração dos mapas hidrogeomorfológicos foi criada uma base SIG, contendo diversa informação, nomeadamente topografia, hidrografia, litologia, tectónica, morfoestrutura, hidrogeologia, geofísica e uso do solo. Além disso, foram realizadas várias campanhas de campo, as quais permitiram: o estabelecimento dum mapeamento geológico, geomorfológico e hidrogeológico; a caracterização in situ do grau de alteração, resistência e grau de fracturação dos maciços rochosos; o desenvolvimento de um inventário hidrogeológico em conjunto com alguns ensaios expeditos in situ. A interligação entre os parâmetros geomorfológicos, hidrológicos e hidrogeológicos dos sistemas de água subterrânea “normal” e hidromineral destaca a importância de uma cartografia e duma modelação conceptual hidrogeomorfológica. Além disso, contribuirá para um melhor apoio à decisão na gestão sustentável dos recursos hídricos.
Resumo:
O presente trabalho teve por objetivos a identificação de uma estratégia e o desenvolvimento de um modelo que permita às operadoras de telecomunicações a sua sustentabilidade, bem como a identificação de caminhos para a adaptação a uma realidade sempre em mudança como é a da indústria das telecomunicações. Numa primeira parte do trabalho elaborou-se uma revisão de literatura do atual estado da arte das principais estratégias relevantes e com aplicação à indústria de telecomunicações. A pesquisa realizada investigou a estrutura atual da indústria de telecomunicações e o estado da competitividade das operadoras de telecomunicações. Dos resultados desta foi possível constatar uma evolução constante da tecnologia e dos modelos de negócio neste ecossistema, assim como a presença de uma pressão concorrencial significativa exercida sobre as operadoras, quer por parte das empresas já existentes no mercado quer por parte das emergentes. As operadoras têm de transformar o seu modelo de rede e de negócios para se adaptarem às mudanças e às tendências da indústria e do mercado. Com base na revisão de literatura, elegeu-se a metodologia baseada num inquérito de pesquisa empírica para aferir o estado da indústria e derivar as estratégias possíveis. Este inquérito foi efetuado a especialistas da área de telecomunicações de diferentes subsectores e países para abordar todos os elementos estratégicos do modelo de negócio futuro. Os resultados da pesquisa revelaram que as empresas que operam no mercado da Internet (Over The Top - OTT) representam a maior ameaça sobre o futuro dos operadores de telecomunicações. Os operadores só vão conseguir responder através da modernização de sua rede, melhorando a qualidade, reduzindo o custo global, e investindo em produtos inovadores e diferenciados e em serviços. Os resultados do inquérito revelam-se de acordo com os pressupostos da Blue Ocean Strategy. A aplicabilidade da Blue Ocean Strategy foi aprofundada permitindo concluir que o valor inovador obtido simultaneamente através da redução de custos e da diferenciação permitem aumentar as vantagens dos operadores existentes em termos das infra-estruturas físicas detidas e das relações estabelecidas com os clientes. O caso particular da fibra óptica até casa (FTTH) foi considerado como aplicação da Blue Ocean Strategy a uma nova tecnologia que as operadoras podem implementar para criar novas soluções e abrir segmentos de mercado inexplorados. Os resultados do inquérito e da investigação realizada à aplicação da Blue Ocean Strategy foram combinados para propor um novo modelo de negócio para as operadoras de telecomunicações que lhes permite, não só responder aos desafios existentes, mas, também, ter uma melhor posição competitiva no futuro. Foi, ainda, realizado um estudo de caso que destacou como a Verizon Communications foi capaz de transformar a sua rede e o modelo de negócio em resposta ao aumento da pressão competitiva. Através do valor da inovação transferida aos seus clientes, a Verizon foi capaz de aumentar significativamente as suas receitas e satisfação do cliente.
Resumo:
A Doença de Alzheimer (AD) é a maior doença neurodegenerativa a nível mundial, e a principal causa de demência na população idosa. O processamento da proteína precursora de amilóide (APP) pelas β- e g- secretases origina o peptídeo Aβ, que agrega em oligómeros neurotóxicos e em placas senis. Estes são eventos-chave na patogénese da DA que levam à rutura da neurotransmissão sináptica, morte neuronal e inflamação neuronal do hipocampo e córtex cerebral, causando perda de memória disfunção cognitiva geral. Apesar dos grandes avanços no conhecimento do papel do processamento da APP na DA, a sua função fisiológica ainda não foi totalmente elucidada. Os mapas de interações proteína-proteína (PPI) humanos têm desempenhado um papel importante na investigação biomédica, em particular no estudo de vias de sinalização e de doenças humanas. O método dois-híbrido em levedura (YTH) consiste numa plataforma para a produção rápida de redes de PPI em larga-escala. Neste trabalho foram realizados vários rastreios YTH com o objetivo de identificar proteínas específicas de cérebro humano que interagissem com a APP, ou com o seu domínio intracelular (AICD), tanto o tipo selvagem como com os mutantes Y687F, que mimetizam o estado desfosforilado do resíduo Tyr-687. De facto, a endocitose da APP e a produção de Aβ estão dependentes do estado de fosforilação da Tyr-687. Os rastreios YTH permitiram assim obter de redes proteínas que interagem com a APP, utilizando como “isco” a APP, APPY687F e AICDY687F. Os clones positivos foram isolados e identificados através de sequenciação do cDNA. A maior parte dos clones identificados, 118, correspondia a sequências que codificam para proteínas conhecidas, resultando em 31 proteínas distintas. A análise de proteómica funcional das proteínas identificadas neste estudo e em dois projetos anteriores (AICDY687E, que mimetiza a fosforilação, e AICD tipo selvagem), permitiram avaliar a relevância da fosforilação da Tyr-687. Três clones provenientes do rastreio YTH com a APPY687F foram identificados como um novo transcrito da proteína Fe65, resultante de splicing alternativo, a Fe65E3a (GenBank Accession: EF103274), que codifica para a isoforma p60Fe65. A p60Fe65 está enriquecida no cérebro e os seus níveis aumentam durante a diferenciação neuronal de células PC12, evidenciando o potencial papel que poderá desempenhar na patologia da DA. A RanBP9 é uma proteína nuclear e citoplasmática envolvida em diversas vias de sinalização celulares. Neste trabalho caracterizou-se a nova interação entre a RanBP9 e o AICD, que pode ser regulada pela fosforilação da Tyr-687. Adicionalmente, foi identificada uma nova interação entre a RanBP9 e a acetiltransferase de histonas Tip60. Demonstrou-se ainda que a RanBP9 tem um efeito de regulação inibitório na transcrição mediada por AICD, através da interação com a Tip60, afastando o AICD dos locais de transcrição ativos. O estudo do interactoma da APP/AICD, modelado pela fosforilação da Tyr-687, revela que a APP poderá estar envolvida em novas vias celulares, contribuindo não só para o conhecimento do papel fisiológico da APP, como também auxilia a revelar as vias que levam à agregação de Aβ e neurodegeneração. A potencial relevância deste trabalho relaciona-se com a descoberta de algumas interações proteicas/vias de sinalização que podem que podem ser relevantes para o desenvolvimento de novas estratégias terapêuticas na DA.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
In this work several techniques to monitor the performance of optical networks were developed. These techniques are dedicated either to the measurement of the data signal parameters (optical signal to noise ratio and dispersion) or to the detection of physical failures on the network infrastructure. The optical signal to noise ratio of the transmitted signal was successfully monitored using methods based on the presence of Bragg gratings imprinted on high birefringent fibres that allowed the distinction of the signal from the noise due to its polarization properties. The monitoring of the signal group-velocity dispersion was also possible. In this case, a method based on the analysis of the electric spectrum of the signal was applied. It was experimentally demonstrated that this technique is applicable on both amplitude and phase modulated signals. It was also developed a technique to monitor the physical infrastructure of an optical access network. Once again, the application of Bragg gratings (this time imprinted on standard single mode fibres) was the basis of the developed method.
Resumo:
Esta investigação teve como objetivo central averiguar se o comportamento espaciotemporal do turista urbano influencia a sua satisfação com a experiência de visita multiatração. Apesar de a mobilidade ser uma condição sine qua non do turismo, e, por outro lado, a visita a múltiplas atrações o contexto habitual em que se desenvolve a experiência turística em contexto urbano, a investigação neste domínio tende a ignorar a dimensão espaciotemporal e multiatração dessa experiência. O modelo conceptual proposto visa a sistematização da análise do comportamento espaciotemporal do turista bem como o estudo da sua relação com a satisfação, enquanto satisfação global e satisfação com dimensões da experiência. A partir deste, foi definido o modelo da pesquisa que, modelizando a questão central em estudo, teve por base dois instrumentos principais: estudo de rastreamento através de equipamento GPS e inquérito por questionário, realizados junto de hóspedes de dez hotéis de Lisboa (n= 413). A análise dos dados assume, por sua vez, dupla natureza: espacial e estatística. Em termos de análise espacial, a metodologia SIG em que se baseou a concretização dos mapas foi executada tendo como suporte a solução ArcGIS for Desktop 10.1, permitindo gerar visualizações úteis do ponto de vista da questão em estudo. A análise estatística dos dados compreendeu métodos descritivos, exploratórios e inferenciais, tendo como principal instrumento de teste das hipóteses formuladas a modelação PLS-PM, complementada pela análise PLS-MGA, com recurso ao programa SmartPLS 2.0. Entre as várias relações significativas encontradas, a conclusão mais importante que se pode retirar da investigação empírica é que, de facto, o comportamento espaciotemporal do turista urbano influencia a sua satisfação com a experiência de visita multiatração, afigurando-se particularmente importante neste contexto, em termos científicos e empíricos, investigar a heterogeneidade subjacente à população em estudo.
Resumo:
O presente trabalho começa por analisar a evolução dos sistemas ao longo de vários períodos históricos, bem como os conceitos e tipologias que os sustentam, no quadro da problemática e da conceptualização teórica do ensino superior. A origem da universidade na idade média, na Europa e em outras partes do mundo, fundamenta-se, principalmente, na procura do saber e nas condicionantes socioeconómicas da época. A evolução da universidade sustentada pela narrativa da modernidade, resultou em modelos diferenciados de ensino superior, que mantinham, no entanto, a razão e a epistemologia do conhecimento académico, como fatores unificadores. O modelo utilizado para traduzir a referida evolução, é proposto por Scott (1995) e configura a relação que se estabelece entre a universidade e outras formas de ensino superior. Na sequência do desenvolvimento dos sistemas, suscitados pelas relações entre os diversos atores envolvidos no ensino superior, procurou-se evidenciar a relação entre o Estado o mercado e os académicos, bem como outros atores sociopolíticos, institucionais e da sociedade civil. O quadro de análise dos mecanismos de coordenação destas envolventes, baseou-se no “Triângulo de Clark”, complementado com o modelo da “Metáfora da Flutuação”. Desde o início da década de 80 do século XX, que a missão, o modo de organização e o funcionamento das IES têm vindo a ser questionadas, como resultado das mudanças económicas de cariz neoliberal. Este cenário, propiciador de crises e de transformações, não tem impedido, porém, de manter o papel fundamental da universidade como produtora e difusora do conhecimento. No contexto da globalização e da cada vez maior influência do mercado no ensino superior, procura-se impor um modelo hegemonizado de racionalidade económica, competitividade e eficiência - o managerialismo. Não obstante alguns êxitos, esta ideologia não tem sido completamente bem-sucedida. Aliás, à tentativa da globalização de gerar uma ordem uniformista, têm sido contrapostos modelos de recontextualização que procuram refletir as realidades locais. Embora num reduzido número de países, África, registou formas de ensino superior endógenas, no período pré-colonial. Depois do espectro colonial que mantém, ainda hoje, a sua influência, os sistemas debatem-se na atualidade com diferentes dilemas, originados pelas correntes da globalização. Porém, o ensino superior em África assume um papel central no contexto do desenvolvimento dos diferentes países contribuindo, igualmente, para a construção da Nação e da sua identidade. Esta dimensão, não é impeditiva do seu envolvimento, nos desafios da sociedade e da economia do conhecimento, buscando, ao mesmo tempo, modelos e práticas equilibradoras, que proporcionem uma resposta satisfatória às necessidades sociais e económicas, nacionais e regionais. Ao enquadrar o sistema de ensino superior em Moçambique merecem destaque as etapas do processo histórico, nomeadamente o surgimento dos estudos gerais universitários como primeira forma de ensino superior mais tarde transformada em universidade, a mudança de paradigma após a independência nacional, a abertura ao setor privado e, ainda, a expansão do sistema. A discussão sobre políticas e estratégias é sustentada pela análise dos respetivos planos estratégicos bem como, pela compreensão das leis fundamentais e respetivos documentos reguladores. Este conjunto de instrumentos concorre para a reforma do sistema, que se procura implementar em Moçambique. Nesta sequência, é de salientar o debate público realizado em torno das qualificações e graus oficialmente estabelecidos, que parece constituir uma problemática ainda não completamente resolvida. Numa outra parte do trabalho, procede-se à apresentação e análise dos resultados de uma investigação sobre o ensino superior em Moçambique. Seguindo uma metodologia de análise qualitativa, foi possível estruturar a informação obtida, em diferentes dimensões e categorias. A informação foi recolhida e tratada, a partir de entrevistas efetuadas a diferentes grupos de atores, direta ou indiretamente relacionados com o ensino superior em Moçambique. Os resultados da análise conduziram à sistematização de um conjunto de linhas de força e ao traçar de conclusões, contributivas para a melhoria do quadro de referência sobre políticas, conceções e práticas do ensino superior em Moçambique.
Resumo:
This dissertation introduces several methodological approaches which integrate a proposed coastal management model in an interdisciplinary perspective. The research presented herein is displayed as a set of publications comprising different thematic outlooks. The thesis develops an integrated coastal geoengineering approach which is intrinsically linked to the studied maritime environments. From sandy coasts and marine works to rocky platforms and sea cliffs, this study includes field work between Caminha – Figueira da Foz (NW Portugal) and Galicia (NW Spain). The research also involves an analysis and geological-geotechnical characterisation of natural rock (armourstone) and artificial units (concrete blocks) applied to coastal structures. The main goal is to contribute to the characterisation and re-evaluation of georesources and to determine armourstone suitability and availability from its source (quarry). It was also important to diagnose the geomaterials in situ concerning their degradation/deterioration level on the basis of the current status of the coastal protection works in order to facilitate more efficient monitoring and maintenance, with economic benefits. In the rocky coast approach the coastal blocks were studied along the platform, but also the geoforms were studied from a coastal morphodynamics point of view. A shoreline evolution analysis was developed for sandy coasts through Digital Shoreline Analysis System (DSAS) extension. In addition, the spatial and statistical analysis applied to sea cliffs allowed the establishment of susceptibility zones to erosion and hazardous areas. All of these studies have different purposes and results however, there is a common denominator – GIS mapping. Hence, apart from the studied coastal environment, there is an integrated system which includes a sequence of procedures and methodologies that persisted during the research period. This is a step forward in the study of different coastal environments by using almost the same methodologies. This will allow the characterisation, monitoring and assessment of coastal protection works, rocky coasts, and shore platforms. With such data, it is possible to propose or recommend strategies for coastal and shoreline management based on several justifications in terms of social, economic, and environmental questions, or even provide a GIS-based planning support system reinforced by geocartographic decisions. Overall the development of the applied cartography embraces six stages which will allow the production of detailed maps of the maritime environment: (1) high-resolution aerial imagery surveys; (2) visual inspection and systematic monitoring; (3) applied field datasheet; (4) in situ evaluation; (5) scanline surveying; and (6) GIS mapping. This thesis covers fundamental matters that were developed over the course of scientific publication and as a consequence they represent the results obtained and discussed. The subjects directly related to the thesis architecture are: (i) cartography applied to coastal dynamics (including an art historical analysis as a tool to comprehend the coastal evolution and the littoral zone); (ii) georesources assessment (the role of cartography in georesources zoning, assessment and armourstone durability); (iii) coastal geoengineering applications and monitoring (Espinho pilot site in NW Portugal as an experimental field); (iv) rocky coast and shore platform studies and characterisation; (v) sandy and mixed environment approaches; (vi) coastal geosciences GIS mapping and photogrammetric surveying (coastal geoengineering); and (vii) shoreline change mapping and coastal management strategies (the CartGalicia Project as an example – NW Spain). Finally, all of these thematic areas were crucial to generate the conceptual models proposed and to shape the future of integrated coastal coastal geoengineering management.
Resumo:
The main objective of the present work is the study of a profitable process not only in the extraction and selective separation of lycopene and β-carotene, two compounds present in tomato, but also in its potential application to food industry wastes. This is one of the industries that produce larger amounts of wastes, which are rich in high value biomolecules with great economic interest. However, the conventional methods used to extract this kind of compounds are expensive which limits their application at large scale. Lycopene and βcarotene are carotenoids with high commercial value, known for their antioxidant activity and benefits to human health. Their biggest source is tomato, one of the world’s most consumed fruits, reason for which large quantities of waste is produced. This work focuses on the study of diverse solvents with a high potential to extract carotenoids from tomato, as well as the search for more environmentally benign solvents than those currently used to extract lycopene and β-carotene from biomass. Additionally, special attention was paid to the creation of a continuous process that would allow the fractionation of the compounds for further purification. Thus, the present work started with the extraction of both carotenoids using a wide range of solvents, namely, organic solvents, conventional salts, ionic liquids, polymers and surfactants. In this stage, each solvent was evaluated in what regards their capacity of extraction as well as their penetration ability in biomass. The results collected showed that an adequate selection of the solvents may lead to the complete extraction of both carotenoids in one single step, particularly acetone and tetrahydrofuran were the most effective ones. However, the general low penetration capacity of salts, ionic liquids, polymers and surfactants makes these solvents ineffective in the solid-liquid extraction process. As the organic solvents showed the highest capacity to extract lycopene and βcarotene, in particular tetrahydrofuran and acetone, the latter solvent used in the development process of fractionation, using to this by strategic use of solvents. This step was only successfully developed through the manipulation of the solubility of each compound in ethanol and n-hexane. The results confirmed the possibility of fractionating the target compounds using the correct addition order of the solvents. Approximately, 39 % of the β-carotene was dissolved in ethanol and about 64 % of lycopene was dissolved in n-hexane, thus indicating their separation for two different solvents which shows the selective character of the developed process without any prior stage optimization. This study revealed that the use of organic solvents leads to selective extraction of lycopene and β-carotene, allowing diminishing the numerous stages involved in conventional methods. At the end, it was possible to idealize a sustainable and of high industrial relevance integrated process, nevertheless existing the need for additional optimization studies in the future.