990 resultados para Jornalista correspondente
Resumo:
O objetivo do presente trabalho consistiu no estudo das propriedades viscoelásticas de suspensões de amido nativo e processado a alta pressão. Foi utilizado um sensor acústico de forma a analisar as propriedades das suspensões, sendo depois recolhidas informações complementares através de outras técnicas: calorimetria diferencial de varrimento, microscopia de luz polarizada e microscopia eletrónica de varrimento. Neste trabalho foram realizados estudos com amido de milho nativo e processado a alta pressão (500 MPa, 5 minutos, temperatura ambiente), tendo-se verificado que a suspensão do amido processado apresentava propriedades viscoelásticas muito diferentes do amido nativo. A temperatura a que se iniciou o aumento da viscosidade foi mais elevada para o amido processado a alta pressão, e as variações observadas para temperaturas superiores a 70 °C foram menores. Durante o arrefecimento foi detetada uma diminuição da viscosidade, correspondente a um aumento da organização molecular, com maior expressão no amido nativo mas que se dá no mesmo intervalo de temperatura, quer para este quer o processado a alta pressão. Foi também possível concluir que a velocidade de aquecimento da amostra de amido influencia as propriedades viscoelásticas da suspensão e as temperaturas a que ocorrem as variações de viscosidade relacionadas com o processo de gelatinização do amido. De assinalar também que no amido de milho se pode detetar pela variação da frequência do cristal piezoelétrico o rompimento dos grânulos e que apesar do estabelecimento de novas ligações e da reposição de alguma ordem molecular que se pode verificar durante o arrefecimento, a frequência da suspensão depois de arrefecida era muito diferente da suspensão de amido inicial. No amido de arroz, a temperatura a que se inicia o aumento de viscosidade foi superior à que se observou para o amido de milho, indicio da maior resistência do amido de arroz, para o qual não se detetou sinal de rutura dos grânulos. A frequência final da suspensão do mesmo, depois de arrefecido, era igual à inicial. Com o amido de arroz foi feito o estudo da influência da temperatura no processamento de alta pressão, tendo sido processadas suspensões a 400 MPa, durante 15 minutos, a 5, 10, 23 e 34 °C. As propriedades viscoelásticas foram analisadas com recurso a um sensor acústico, tendo-se verificado que quanto maior a temperatura de processamento a alta pressão, mais elevada a temperatura necessária para que se inicie o aumento de viscosidade e menores as temperaturas a que se inicia diminuição da mesma durante o arrefecimento.
Resumo:
No contexto dos contaminantes aquáticos, os herbicidas são considerados como um dos grupos mais perigosos. Uma vez aplicados, estes são facilmente transportados para cursos de água, quer devido a uma pulverização pouco cuidada ou devido a fenómenos de escorrência superficial e/ou subterrânea. A presença destes agroquímicos no ambiente tem vindo a ser associada a efeitos nefastos em organismos não-alvo, como é o caso dos peixes. Contudo, existe ainda uma grande lacuna no que diz respeito à informação científica relacionada com o seu impacto genotóxico. Deste modo, a presente tese foi delineada com o intuito de avaliar o risco genotóxico em peixes de duas formulações de herbicidas: o Roundup®, que tem como princípio activo o glifosato, e o Garlon®, que apresenta o triclopir na base da sua constituição, produtos estes largamente utilizados na limpeza de campos agrícolas, assim como em florestas. Foi ainda planeado desenvolver uma base de conhecimento no que diz respeito aos mecanismos de dano do ADN. Como último objectivo, pretendeu-se contribuir para a mitigação dos efeitos dos agroquímicos no biota aquático, nomeadamente em peixes, fornecendo dados científicos no sentido de melhorar as práticas agrícolas e florestais. Este estudo foi realizado adoptando a enguia europeia (Anguilla anguilla L.) como organismo-teste, e submetendo-a a exposições de curta duração (1 e 3 dias) dos produtos comerciais mencionados, em concentrações consideradas ambientalmente realistas. Para a avaliação da genotoxicidade foram aplicadas duas metodologias: o ensaio do cometa e o teste das anomalias nucleares eritrocíticas (ANE). Enquanto o ensaio do cometa detecta quebras na cadeia do ADN, um dano passível de ser reparado, o aparecimento das ANE revela lesões cromossomais, sinalizando um tipo de dano de difícil reparação. O ensaio do cometa foi ainda melhorado com uma nova etapa que incluiu a incubação com enzimas de reparação (FPG e EndoIII), permitindo perceber a ocorrência de dano oxidativo no ADN. No que diz respeito ao Roundup®, o envolvimento do sistema antioxidante como indicador de um estado próoxidante foi também alvo de estudo. Uma vez que as referidas formulações se apresentam sob a forma de misturas, o potencial genotóxico dos seus princípios activos foi também avaliado individualmente. No caso particular do Roundup®, também foram estudados o seu surfactante (amina polietoxilada; POEA) e o principal metabolito ambiental (ácido aminometilfosfórico; AMPA). Os resultados obtidos mostraram a capacidade do Roundup® em induzir tanto dano no ADN (em células de sangue, guelras e fígado) como dano cromossómico (em células de sangue). A investigação sobre o possível envolvimento do stresse oxidativo demonstrou que o tipo de dano no ADN varia com as concentrações testadas e com a duração da exposição. Deste modo, com o aumento do tempo de exposição, os processos relacionados com o envolvimento de espécies reactivas de oxigénio (ERO) ganharam preponderância como mecanismo de dano no ADN, facto que é corroborado pela activação do sistema antioxidante observado nas guelras, assim como pelo aumento dos sítios sensíveis a FPG em hepatócitos. O glifosato e o POEA foram também considerados genotóxicos. O POEA mostrou induzir uma maior extensão de dano no ADN, tanto comparado com o glifosato como com a mistura comercial. Apesar de ambos os componentes contribuirem para a genotoxicidade da formulação, a soma dos seus efeitos individuais nunca foi observada, apontando para um antagonismo entre eles e indicando que o POEA não aumenta o risco associado ao princípio activo. Deste modo, realça-se a necessidade de regulamentar limiares de segurança para todos os componentes da formulação, recomendando, em particular, a revisão da classificação do risco do POEA (actualmente classificado com “inerte”). Uma vez confirmada a capacidade do principal metabolito do glifosato – AMPA – em exercer dano no ADN assim como dano cromossómico, os produtos da degradação ambiental dos princípios activos assumem-se como um problema silencioso, realçando assim a importância de incluir o AMPA na avaliação do risco relacionado com herbicidas com base no glifosato. A formulação Garlon® e o seu princípio activo triclopir mostraram um claro potencial genotóxico. Adicionalmente, o Garlon® mostrou possuir um potencial genotóxico mais elevado do que o seu princípio activo. No entanto, a capacidade de infligir dano oxidativo no ADN não foi demonstrada para nenhum dos agentes. No que concerne à avaliação da progressão do dano após a remoção da fonte de contaminação, nem os peixes expostos a Roundup® nem os expostos a Garlon® conseguiram restaurar completamente a integridade do seu ADN ao fim de 14 dias. No que concerne ao Roundup®, o uso de enzimas de reparação de lesões específicas do ADN associado ao teste do cometa permitiu detectar um aparecimento tardio de dano oxidativo, indicando deste modo um decaimento progressivo da protecção antioxidante e ainda uma incapacidade de reparar este tipo de dano. O período de pós-exposição correspondente ao Garlon® revelou uma tendência de diminuição dos níveis de dano, apesar de nunca se observar uma completa recuperação. Ainda assim, foi evidente uma intervenção eficiente das enzimas de reparação do ADN, mais concretamente as direccionadas às purinas oxidadas. A avaliação das metodologias adoptadas tornou evidente que o procedimento base do ensaio do cometa, que detecta apenas o dano nãoespecífico no ADN, possui algumas limitações quando comparado com a metodologia que incluiu a incubação com as enzimas de reparação, uma vez que a última mostrou reduzir a possibilidade de ocorrência de resultados falsos negativos. Os dois parâmetros adoptados (ensaio do cometa e teste das ANE) demonstraram possuir aptidões complementares, sendo assim recomendado a sua utilização conjunta com vista a efectuar uma avaliação mais adequada do risco genotóxico. Globalmente, os resultados obtidos forneceram indicações de grande utilidade para as entidades reguladoras, contribuindo ainda para a (re)formulação de medidas de conservação do ambiente aquático. Neste sentido, os dados obtidos apontam para a importância da avaliação de risco dos herbicidas incluir testes de genotoxicidade. A magnitude de risco detectada para ambas as formulações adverte para a necessidade de adopção de medidas restritivas em relação à sua aplicação na proximidade de cursos de água. Como medidas mitigadoras de impactos ambientais, aponta-se o desenvolvimento de formulações que incorporem adjuvantes selecionados com base na sua baixa toxicidade.
Resumo:
Embora o objetivo principal da proteção internacional dos solos seja proteger tanto as funções quanto a estrutura do solo, a atual abordagem trata principalmente da proteção ao nível estrutural. Há uma carência de estudos que contemplem a ligação das funções do solo com os níveis da comunidade. Além disso, é ainda desconhecido se as variáveis ambientais (ex: tipos de solo, condições climáticas) atuam nas funções do solo da mesma maneira que influenciam sua estrutura biológica. Ademais, as alterações climáticas poderão ter sozinhas ou combinadas com os poluentes, um grande efeito nos ecossistemas terrestres. O presente trabalho propõe estudar as funções e a estrutura biológica do solo quando impactados devido a estresse tóxico (poluição por Cu) e/ou alterações a fatores como a temperatura e abundância de organismos, de maneira a simular possíveis variações regionais ou climáticas. Para alcançar os objetivos principais 3 experiências utilizando diferentes densidades de E. crypticus e 2 gerações foram feitas (Capítulos II e III). Duas experiências com mesocosmos (SMS) decorreram durante 3 meses sob uma gama de diversas temperaturas (10 – 29°C), que representam temperaturas médias para Portugal e Dinamarca (Capítulos IV e V). Duas experiências de campo também foram realizadas com intuito de validar os SMSs (Capítulo VI). Resultados demonstraram que os efeitos do Cu na reprodução dos enquitraídeos dependem da densidade inicial de organismos, especialmente na 2ª geração. Entretanto, nos SMSs expostos a Cu, a densidade inicial é menos importante nos resultados finais. O aumento da temperatura alterou majoritariamente a fase inicial de crescimento populacional. Em períodos mais longos, a abundância estabilizou tornando-se menos influenciada pelas temperaturas. Períodos longos de exposição reforçaram os efeitos da temperatura, como por ex: diversas espécies foram similarmente afetadas a 29 ou 26°C quando expostas durante 28 ou 61 dias respectivamente. De forma geral, o Cu reduziu a abundância da maioria das espécies ao longo do tempo, com poucas exceções. Os resultados da decomposição da matéria orgânica (MO) e atividade alimentar associaram-se com a abundância de organismos em baixas temperaturas (10-23°C). Entretanto, com o aumento das temperaturas (19-29°C), este comportamento não foi claro e a abundância de espécies e atividade alimentar diminuíram enquanto a decomposição da MO aumentou. Além disso, os resultados observados nos SMSs foram confirmados no campo. Mais especificamente, alterações ocorreram na fase de crescimento (correspondente à Primavera) e a exposição ao Cu diminuiu os efeitos da temperatura. Metodologias mais complexas (ex: mais gerações e experiências com múltiplas espécies) apresentam muitos benefícios, mas também proporcionam respostas mais complexas, as quais exigem um maior “peso” de evidências para serem comprovadas.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.
Resumo:
The work presented in this Ph.D thesis was developed in the context of complex network theory, from a statistical physics standpoint. We examine two distinct problems in this research field, taking a special interest in their respective critical properties. In both cases, the emergence of criticality is driven by a local optimization dynamics. Firstly, a recently introduced class of percolation problems that attracted a significant amount of attention from the scientific community, and was quickly followed up by an abundance of other works. Percolation transitions were believed to be continuous, until, recently, an 'explosive' percolation problem was reported to undergo a discontinuous transition, in [93]. The system's evolution is driven by a metropolis-like algorithm, apparently producing a discontinuous jump on the giant component's size at the percolation threshold. This finding was subsequently supported by number of other experimental studies [96, 97, 98, 99, 100, 101]. However, in [1] we have proved that the explosive percolation transition is actually continuous. The discontinuity which was observed in the evolution of the giant component's relative size is explained by the unusual smallness of the corresponding critical exponent, combined with the finiteness of the systems considered in experiments. Therefore, the size of the jump vanishes as the system's size goes to infinity. Additionally, we provide the complete theoretical description of the critical properties for a generalized version of the explosive percolation model [2], as well as a method [3] for a precise calculation of percolation's critical properties from numerical data (useful when exact results are not available). Secondly, we study a network flow optimization model, where the dynamics consists of consecutive mergings and splittings of currents flowing in the network. The current conservation constraint does not impose any particular criterion for the split of current among channels outgoing nodes, allowing us to introduce an asymmetrical rule, observed in several real systems. We solved analytically the dynamic equations describing this model in the high and low current regimes. The solutions found are compared with numerical results, for the two regimes, showing an excellent agreement. Surprisingly, in the low current regime, this model exhibits some features usually associated with continuous phase transitions.
Resumo:
Wireless communication technologies have become widely adopted, appearing in heterogeneous applications ranging from tracking victims, responders and equipments in disaster scenarios to machine health monitoring in networked manufacturing systems. Very often, applications demand a strictly bounded timing response, which, in distributed systems, is generally highly dependent on the performance of the underlying communication technology. These systems are said to have real-time timeliness requirements since data communication must be conducted within predefined temporal bounds, whose unfulfillment may compromise the correct behavior of the system and cause economic losses or endanger human lives. The potential adoption of wireless technologies for an increasingly broad range of application scenarios has made the operational requirements more complex and heterogeneous than before for wired technologies. On par with this trend, there is an increasing demand for the provision of cost-effective distributed systems with improved deployment, maintenance and adaptation features. These systems tend to require operational flexibility, which can only be ensured if the underlying communication technology provides both time and event triggered data transmission services while supporting on-line, on-the-fly parameter modification. Generally, wireless enabled applications have deployment requirements that can only be addressed through the use of batteries and/or energy harvesting mechanisms for power supply. These applications usually have stringent autonomy requirements and demand a small form factor, which hinders the use of large batteries. As the communication support may represent a significant part of the energy requirements of a station, the use of power-hungry technologies is not adequate. Hence, in such applications, low-range technologies have been widely adopted. In fact, although low range technologies provide smaller data rates, they spend just a fraction of the energy of their higher-power counterparts. The timeliness requirements of data communications, in general, can be met by ensuring the availability of the medium for any station initiating a transmission. In controlled (close) environments this can be guaranteed, as there is a strict regulation of which stations are installed in the area and for which purpose. Nevertheless, in open environments, this is hard to control because no a priori abstract knowledge is available of which stations and technologies may contend for the medium at any given instant. Hence, the support of wireless real-time communications in unmanaged scenarios is a highly challenging task. Wireless low-power technologies have been the focus of a large research effort, for example, in the Wireless Sensor Network domain. Although bringing extended autonomy to battery powered stations, such technologies are known to be negatively influenced by similar technologies contending for the medium and, especially, by technologies using higher power transmissions over the same frequency bands. A frequency band that is becoming increasingly crowded with competing technologies is the 2.4 GHz Industrial, Scientific and Medical band, encompassing, for example, Bluetooth and ZigBee, two lowpower communication standards which are the base of several real-time protocols. Although these technologies employ mechanisms to improve their coexistence, they are still vulnerable to transmissions from uncoordinated stations with similar technologies or to higher power technologies such as Wi- Fi, which hinders the support of wireless dependable real-time communications in open environments. The Wireless Flexible Time-Triggered Protocol (WFTT) is a master/multi-slave protocol that builds on the flexibility and timeliness provided by the FTT paradigm and on the deterministic medium capture and maintenance provided by the bandjacking technique. This dissertation presents the WFTT protocol and argues that it allows supporting wireless real-time communication services with high dependability requirements in open environments where multiple contention-based technologies may dispute the medium access. Besides, it claims that it is feasible to provide flexible and timely wireless communications at the same time in open environments. The WFTT protocol was inspired on the FTT paradigm, from which higher layer services such as, for example, admission control has been ported. After realizing that bandjacking was an effective technique to ensure the medium access and maintenance in open environments crowded with contention-based communication technologies, it was recognized that the mechanism could be used to devise a wireless medium access protocol that could bring the features offered by the FTT paradigm to the wireless domain. The performance of the WFTT protocol is reported in this dissertation with a description of the implemented devices, the test-bed and a discussion of the obtained results.
Resumo:
The development of computed tomography systems with energy resolving detectors is a current challenge in medical physics and biomedical engineering. A computed tomography system of this kind allows getting complementary informations relatively to conventional systems, that can help the medical diagnosis, being of great interest in medicine. The work described in this thesis is related to the development of a computed tomography system using micropattern gaseous detectors, which allow storing, simultaneously, information about the interaction position and the energy of each single photon that interacts with the detector. This kind of detectors has other advantages concerning the cost and characteristics of operation when compared with solid state detectors. Tomographic acquisitions were performed using a MicroHole & Strip Plate based detector, which allowed reconstructing cross-sectional images using energy windows, applying the energy weighting technique and performing multi-slice and tri-dimensional reconstructions. The contrast-to-noise ratio was improved by 31% by applying the energy weighting technique, comparing with the corresponding image obtained with the current medical systems. A prototype of a computed tomography with flexibility to change the detector was developed, making it possible to apply different detectors based on Thick-COBRA. Several images acquired with these detectors are presented and demonstrate their applicability in X-ray imaging. When operating in NeCH4, the detector allowed a charge gain of 8 104, an energy resolution of 20% (full width at half maximum at 8 keV), a count rate of 1 106 Hz/mm2, a very stable operation (gain fluctuations below 5%) and a spacial resolution of 1.2 mm for an energy photon of 3.6 keV. Operating the detector in pure Kr allowed increasing the detection efficiency and achieving a charge gain of 2 104, an energy resolution of 32% (full width at half maximum at 22 keV), a count rate of 1 105 Hz/mm2, very stable operation and a spatial resolution of 500 m. The software already existing in the group was improved and tools to correct geometric misalignments of the system were also developed. The reconstructions obtained after geometrical correction are free of artefacts due to the referred misalignments.
Resumo:
The main motivation for the work presented here began with previously conducted experiments with a programming concept at the time named "Macro". These experiments led to the conviction that it would be possible to build a system of engine control from scratch, which could eliminate many of the current problems of engine management systems in a direct and intrinsic way. It was also hoped that it would minimize the full range of software and hardware needed to make a final and fully functional system. Initially, this paper proposes to make a comprehensive survey of the state of the art in the specific area of software and corresponding hardware of automotive tools and automotive ECUs. Problems arising from such software will be identified, and it will be clear that practically all of these problems stem directly or indirectly from the fact that we continue to make comprehensive use of extremely long and complex "tool chains". Similarly, in the hardware, it will be argued that the problems stem from the extreme complexity and inter-dependency inside processor architectures. The conclusions are presented through an extensive list of "pitfalls" which will be thoroughly enumerated, identified and characterized. Solutions will also be proposed for the various current issues and for the implementation of these same solutions. All this final work will be part of a "proof-of-concept" system called "ECU2010". The central element of this system is the before mentioned "Macro" concept, which is an graphical block representing one of many operations required in a automotive system having arithmetic, logic, filtering, integration, multiplexing functions among others. The end result of the proposed work is a single tool, fully integrated, enabling the development and management of the entire system in one simple visual interface. Part of the presented result relies on a hardware platform fully adapted to the software, as well as enabling high flexibility and scalability in addition to using exactly the same technology for ECU, data logger and peripherals alike. Current systems rely on a mostly evolutionary path, only allowing online calibration of parameters, but never the online alteration of their own automotive functionality algorithms. By contrast, the system developed and described in this thesis had the advantage of following a "clean-slate" approach, whereby everything could be rethought globally. In the end, out of all the system characteristics, "LIVE-Prototyping" is the most relevant feature, allowing the adjustment of automotive algorithms (eg. Injection, ignition, lambda control, etc.) 100% online, keeping the engine constantly working, without ever having to stop or reboot to make such changes. This consequently eliminates any "turnaround delay" typically present in current automotive systems, thereby enhancing the efficiency and handling of such systems.
Resumo:
Tese dout., Biologia, Universidade do Algarve, 2006
Resumo:
Dissertação de Mestrado, Psicologia, Área de Especialização em Psicologia da Saúde, Faculdade de Ciências Humanas e Sociais, Universidade do Algarve, 2008
Resumo:
Dissertação de Mestrado, Biologia Molecular e Microbiana, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2010
Resumo:
Dissertação mest., Biologia Marinha, Universidade do Algarve, 2009
Resumo:
Tese de dout., Ciências e Tecnologias do Ambiente (Modelação Ambiental), Univ. do Algarve, 1999
Resumo:
Dissertação de mest., Gestão e Conservação da Natureza, Faculdade de Ciências do Mar e do Ambiente, Univ. do Algarve, 2010
Resumo:
Este estudo analisa a relevância do conceito de autenticidade, do ponto de vista da gestão, num destino turístico de tipo “sol e praia”, onde a autenticidade constitui a sua principal vantagem comparativa. Para o efeito, propomos um modelo em que a autenticidade constitui o mediador chave entre as motivações culturais e a satisfação, as intenções comportamentais e a fidelização. O modelo foi empiricamente testado através da aplicação de uma amostra de 245 questionários recolhidos na área geográfica correspondente à NUT III – Alentejo Litoral. O Alentejo é a região mais tradicional de Portugal, onde o oceano contrasta com a calma e a beleza da paisagem rural que dita a forma como as pessoas vivem e recebem os visitantes. Para a realização do estudo foi aplicado um modelo de equações estruturais (MEE) utilizando o SmartPLS 2.0 M3. Os resultados indicam que as motivações culturais constituem um importante antecedente da autenticidade baseada nos atributos e da autenticidade existencial, as quais exercem, por sua vez, uma significativa influência na satisfação. Este último constructo revela também uma grande influência directa e indirecta (via intenções comportamentais) na fidelização. As implicações teóricas e de gestão foram discutidas mostrando que a preservação e valorização dos traços de autenticidade da região podem contribuir para reforçar a satisfação dos turistas e a competitividade do destino.