1000 resultados para Cento de Ciências Exatas e da Engenharia
Resumo:
A presença de aminas biogénicas em alimentos é um ponto crítico da segurança alimentar dada a sua implicação em fenómenos de intoxicações alimentares. Com a realização deste trabalho pretendeu-se contribuir para um melhor esclarecimento desta temática, actuando-se a dois níveis: numa primeira fase procedeu-se ao desenvolvimento e validação de uma nova metodologia analítica para a determinação simultânea de quatro aminas biogénicas (histamina, cadaverina, tiramina e triptamina) presentes no pescado; numa segunda fase procedeu-se à quantificação dos teores das aminas biogénicas em amostras de tunídeos. O desenvolvimento da metodologia quantitativa baseou-se na utilização da técnica de cromatografia líquida acoplada à espectrometria de massa em tandem (LC-MS/MS), tendo a preparação dos extractos para análise envolvido a extracção das aminas biogénicas do músculo de tunídeos com ácido clorídrico e a purificação dos extractos obtidos por SPE. Como qualquer outro método cromatográfico, a metodologia de LC-MS/MS desenvolvida exigiu a optimização de vários parâmetros como: a concentração do padrão interno, a metodologia de extracção em fase sólida (SPE), composição e fluxo da fase móvel, volume de injecção, determinação dos tempos de retenção, condições de ionização e condições de fragmentação. A validação metodologia foi realizada através da avaliação de alguns parâmetros analíticos, tal como o ajuste do modelo de calibração, precisão (repetibilidade e precisão intermédia), limite de quantificação, limite de detecção e percentagem de recuperação. De modo a potenciar a sensibilidade e selectividade permitida pelo equipamento analítico e com o objectivo de efectuar a quantificação dos compostos em análise, a aquisição de dados foi realizada em modo MRM. Uma vez que se utilizou um padrão interno (heptilamina), a proporcionalidade da intensidade do sinal das aminas biogénicas em relação a uma determinada concentração foi dada em termos de áreas relativas, que corresponde à razão da intensidade do sinal da amina biogénica/intensidade do sinal do padrão interno (analito/P.I.). A metodologia analítica desenvolvida foi aplicada à determinação dos teores de aminas biogénicas nas amostras de músculo de tunídeos recolhidas, com uma regularidade semanal, em diferentes estabelecimentos comerciais no decorrer da época intensiva da sua captura (de Abril a Setembro de 2009). Os teores de aminas biogénicas encontrados, entre 2,63 mg/kg (triptamina) e 132,78 mg/kg (tiramina), não ultrapassaram os limites impostos pela Comunidade Europeia para os teores de histamina e para os teores de aminas totais; sendo que, em cerca de 87% das 59 amostras analisadas não foram encontrados teores quantificáveis para as quatro aminas biogénicas.
Resumo:
Os quadrados mágicos, de um modo geral, são abordados como uma poderosa ferramenta pedagógica capaz de despertar e aprimorar o raciocínio lógico. São inúmeros os projectos que objectivam a realização de actividades lúdicas capazes de aprimorar capacidades humanas como o raciocínio lógico. Segundo [Leo05], na Alemanha, os quadrados mágicos chegam a ser referência nos manuais das escolas primárias. Contrariamente à maioria dos trabalhos em quadrados mágicos, a grande preocupação presente neste não foi propriamente explorar a potencialidade dos quadrados mágicos como utensílio dogmático no desenvolvimento de raciocínios. Neste trabalho a nossa atenção incidiu na resolução de um problema de combinatória proposto por Henry Dudeney, mais concretamente o “Enigma do Monge”. Foi desenvolvida uma estratégia própria para solucionar o respectivo enigma. Foram ainda analisadas outras questões inerentes ao mesmo problema. Verificámos ainda que as relações de simetria desempenham um papel preponderante, no sentido em que o seu conhecimento facilitou a resolução do problema. Contudo, e contrariamente ao que prevíamos, verificou-se que este problema estava fortemente relacionado com os quadrados mágicos. Mais, existem propriedades verificadas no enigma que são determinantes na construção de quadrados mágicos de ordem 3.
Resumo:
A resistência a múltiplos fármacos é um grande problema na terapia anti-cancerígena, sendo a glicoproteína-P (P-gp) uma das responsáveis por esta resistência. A realização deste trabalho incidiu principalmente no desenvolvimento de modelos matemáticos/estatísticos e “químicos”. Para os modelos matemáticos/estatísticos utilizamos métodos de Machine Learning como o Support Vector Machine (SVM) e o Random Forest, (RF) em relação aos modelos químicos utilizou-se farmacóforos. Os métodos acima mencionados foram aplicados a diversas proteínas P-gp, p53 e complexo p53-MDM2, utilizando duas famílias: as pifitrinas para a p53 e flavonóides para P-gp e, em menor medida, um grupo diversificado de moléculas de diversas famílias químicas. Nos modelos obtidos pelo SVM quando aplicados à P-gp e à família dos flavonóides, obtivemos bons valores através do kernel Radial Basis Function (RBF), com precisão de conjunto de treino de 94% e especificidade de 96%. Quanto ao conjunto de teste com previsão de 70% e especificidade de 67%, sendo que o número de falsos negativos foi o mais baixo comparativamente aos restantes kernels. Aplicando o RF à família dos flavonóides verificou-se que o conjunto de treino apresenta 86% de precisão e uma especificidade de 90%, quanto ao conjunto de teste obtivemos uma previsão de 70% e uma especificidade de 60%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Repetindo o procedimento anterior (RF) e utilizando um total de 63 descritores, os resultados apresentaram valores inferiores obtendo-se para o conjunto de treino 79% de precisão e 82% de especificidade. Aplicando o modelo ao conjunto de teste obteve-se 70% de previsão e 60% de especificidade. Comparando os dois métodos, escolhemos o método SVM com o kernel RBF como modelo que nos garante os melhores resultados de classificação. Aplicamos o método SVM à P-gp e a um conjunto de moléculas não flavonóides que são transportados pela P-gp, obteve-se bons valores através do kernel RBF, com precisão de conjunto de treino de 95% e especificidade de 93%. Quanto ao conjunto de teste, obtivemos uma previsão de 70% e uma especificidade de 69%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Aplicou-se o método do farmacóforo a três alvos, sendo estes, um conjunto de inibidores flavonóides e de substratos não flavonóides para a P-gp, um grupo de piftrinas para a p53 e um conjunto diversificado de estruturas para a ligação da p53-MDM2. Em cada um dos quatro modelos de farmacóforos obtidos identificou-se três características, sendo que as características referentes ao anel aromático e ao dador de ligações de hidrogénio estão presentes em todos os modelos obtidos. Realizando o rastreio em diversas bases de dados utilizando os modelos, obtivemos hits com uma grande diversidade estrutural.
Resumo:
As redes de comunicação de nova geração, onde se incluem as tecnologias de fibra óptica, têm sido uma área na qual tem havido imensa investigação e desenvolvimento. As tecnologias de FTTx, em especial a FTTH, já são uma realidade em milhares de habitações em variadíssimos países. A presente dissertação descreve um estudo da tecnologia GPON - Gigabit Passive Optical Network - nas instalações da EMACOM, Telecomunicações da Madeira, Unipessoal, Lda. Inicialmente são enumerados os requisitos necessários, quer seja por parte dos clientes como dos fornecedores. Em seguida apresenta-se o padrão do ITU-T G.984, contendo as várias camadas, tais como a camada física e a camada de convergência de transmissão, abordando também a estrutura das tramas e as principais características do referido padrão. Depois é dado a conhecer ao leitor os elementos que constituem uma rede GPON, sejam estes equipamentos passivos ou activos. Seguidamente foi descrito o planeamento para o projecto proposto onde foram estudados os vários tipos de arquitectura utilizados pelo FTTH e definiu-se qual seria a melhor opção para a zona urbana considerada. Utilizou-se o ArcMap da ESRI Portugal - Sistemas e Informação Geográfica, S.A, criando uma base de dados e um esquema da própria rede num mapa da freguesia de São Martinho. Utilizou-se o AutoCad, onde foram elaborados vários sinópticos da rede da área escolhida, nos quais englobam a rede de alimentação, e a rede de distribuição. Toda a informação ilustrada nos sinópticos foi colocada numa folha de cálculo de Excel sendo mais rápida a sua pesquisa. Posteriormente, criou-se uma lista de material com as quantidades necessárias a utilizar para a sua implementação. Para verificar a viabilidade do projecto em termos de potência óptica foi efectuado um cálculo do balanço de potência. Assim, é considerada a ligação mais distante para averiguar se existe potência óptica suficiente para cobrir essa ligação. Caso seja viável, então os outros pontos de distribuição ópticos com distâncias inferiores também estarão suficientemente alimentados em termos ópticos. São ainda abordados os vários tipos de perdas nas fibras ópticas, as definições de link power e link loss budgets. Finalmente, foram efectuados testes de simulação com o programa OptiSystem simulando a ligação usada para o cálculo de potência podendo-se assim comparar valores e verificar o desempenho do sistema através do diagrama de olho obtido.
Resumo:
INTRODUCTION With the advent of Web 2.0, social networking websites like Facebook, MySpace and LinkedIn have become hugely popular. According to (Nilsen, 2009), social networking websites have global1 figures of almost 250 millions unique users among the top five2, with the time people spend on those networks increasing 63% between 2007 and 2008. Facebook alone saw a massive growth of 566% in number of minutes in the same period of time. Furthermore their appeal is clear, they enable users to easily form persistent networks of friends with whom they can interact and share content. Users then use those networks to keep in touch with their current friends and to reconnect with old friends. However, online social network services have rapidly evolved into highly complex systems which contain a large amount of personally salient information derived from large networks of friends. Since that information varies from simple links to music, photos and videos, users not only have to deal with the huge amount of data generated by them and their friends but also with the fact that it‟s composed of many different media forms. Users are presented with increasing challenges, especially as the number of friends on Facebook rises. An example of a problem is when a user performs a simple task like finding a specific friend in a group of 100 or more friends. In that case he would most likely have to go through several pages and make several clicks till he finds the one he is looking for. Another example is a user with more than 100 friends in which his friends make a status update or another action per day, resulting in 10 updates per hour to keep up. That is plausible, especially since the change in direction of Facebook to rival with Twitter, by encouraging users to update their status as they do on Twitter. As a result, to better present the web of information connected to a user the use of better visualizations is essential. The visualizations used nowadays on social networking sites haven‟t gone through major changes during their lifetimes. They have added more functionality and gave more tools to their users, but still the core of their visualization hasn‟t changed. The information is still presented in a flat way in lists/groups of text and images which can‟t show the extra connections pieces of information. Those extra connections can give new meaning and insights to the user, allowing him to more easily see if that content is important to him and the information related to it. However showing extra connections of information but still allowing the user to easily navigate through it and get the needed information with a quick glance is difficult. The use of color coding, clusters and shapes becomes then essential to attain that objective. But taking into consideration the advances in computer hardware in the last decade and the software platforms available today, there is the opportunity to take advantage of 3D. That opportunity comes in because we are at a phase were the hardware and the software available is ready for the use of 3D in the web. With the use of the extra dimension brought by 3D, visualizations can be constructed to show the content and its related information to the user at the same screen and in a clear way. Also it would allow a great deal of interactivity. Another opportunity to create better information‟s visualization presents itself in the form of the open APIs, specifically the ones made available by the social networking sites. Those APIs allow any developers to create their own applications or sites taking advantage of the huge amount of information there is on those networks. Specifically to this case, they open the door for the creation of new social network visualizations. Nevertheless, the third dimension is by itself not enough to create a better interface for a social networking website, there are some challenges to overcome. One of those challenges is to make the user understand what the system is doing during the interaction with the user. Even though that is important in 2D visualizations, it becomes essential in 3D due to the extra dimension. To overcome that challenge it‟s necessary the use of the principles of animations defined by the artists at Walt Disney Studios (Johnston, et al., 1995). By applying those principles in the development of the interface, the actions of the system in response to the user inputs became clear and understandable. Furthermore, a user study needs to be performed so the users‟ main goals and motivations, while navigating the social network, are revealed. Their goals and motivations are important in the construction of an interface that reflects the user expectations for the interface, but also helps in the development of appropriate metaphors. Those metaphors have an important role in the interface, because if correctly chosen they help the user understand the elements of the interface instead of making him memorize it. The last challenge is the use of 3D visualization on the web, since there have been several attempts to bring 3D into it, mainly with the various versions of VRML which were destined to failure due to the hardware limitations at the time. However, in the last couple of years there has been a movement to make the necessary tools to finally allow developers to use 3D in a useful way, using X3D or OpenGL but especially flash. This thesis argues that there is a need for a better social network visualization that shows all the dimensions of the information connected to the user and that allows him to move through it. But there are several characteristics the new visualization has to possess in order for it to present a real gain in usability to Facebook‟s users. The first quality is to have the friends at the core of its design, and the second to make use of the metaphor of circles of friends to separate users in groups taking into consideration the order of friendship. To achieve that several methods have to be used, from the use of 3D to get an extra dimension for presenting relevant information, to the use of direct manipulation to make the interface comprehensible, predictable and controllable. Moreover animation has to be use to make all the action on the screen perceptible to the user. Additionally, with the opportunity given by the 3D enabled hardware, the flash platform, through the use of the flash engine Papervision3D and the Facebook platform, all is in place to make the visualization possible. But even though it‟s all in place, there are challenges to overcome like making the system actions in 3D understandable to the user and creating correct metaphors that would allow the user to understand the information and options available to him. This thesis document is divided in six chapters, with Chapter 2 reviewing the literature relevant to the work described in this thesis. In Chapter 3 the design stage that resulted in the application presented in this thesis is described. In Chapter 4, the development stage, describing the architecture and the components that compose the application. In Chapter 5 the usability test process is explained and the results obtained through it are presented and analyzed. To finish, Chapter 6 presents the conclusions that were arrived in this thesis.
Resumo:
As redes de comunicação sem fios são uma área de grande desenvolvimento. As tecnologias progridem e criam-se novas oportunidades de implementação de novos dispositivos nesta área. Neste tipo de redes, encontram-se as redes de sensores sem fios (WSN- Wireless Sensor Networks), que são constituídas por vários dispositivos (Nós Sensores) que colaboram entre si, para recolher e encaminhar informação sobre um determinado fenómeno físico até uma estação base. A um outro nível, a preservação das obras de arte é uma preocupação fundamental de todos os Museus. Existe a necessidade de conservar ao máximo as características genuínas de cada artefacto. Para tal, torna-se essencial uma monitorização e controlo de alguns factores ambientais, que podem danificar ou alterar as características dos materiais. Essa monitorização é realizada nos museus da Madeira, mas de uma forma manual e recorrendo a aparelhos que são dispendiosos e um pouco arcaicos. Assim sendo, tornou-se necessário encontrar uma solução, para a realização dessa tarefa de uma forma automática e contínua. As WSN oferecem uma resposta para estas necessidades, surgindo assim o projecto WISE-MUSE, que visa a monitorização ambiental para a conservação de obras de arte e artigos históricos, através de redes sem fios.Portanto, este projecto de Mestrado em Telecomunicações e Redes tem como área de acção a camada física da arquitectura do sistema WISE-MUSE. Neste sentido, desenvolveu-se um conjunto de dispositivos electrónicos, para monitorização e controlo de factores climáticos no Museu de arte contemporânea do Funchal. A ligação entre dispositivos e transmissão dos dados recolhidos foi assegurada através da implementação de uma rede sem fios. Ao nível dos nós sensores construídos, os desenvolvimentos mais importantes tiveram como meta a minimização de custos, consumo energético e dimensões dos mesmos. Além dos sensores, foram desenvolvidos outros componentes da rede, nomeadamente dispositivos routers e um dispositivo que permite o controlo automático da humidade.
Resumo:
A Internet é responsável pelo surgimento de um novo paradigma de televisão – IPTV (Televisão sobre IP). Este serviço distingue-se de outros modelos de televisão, pois permite aos utilizadores um elevado grau de interactividade, com um controlo personalizado sobre os conteúdos a que pretende assistir. Possibilita ainda a oferta de um número ilimitado de canais, bem como o acesso a conteúdos de Vídeo on Demand (VoD). O IPTV apresenta diversas funcionalidades suportadas por uma arquitectura complexa e uma rede convergente que serve de integração a serviços de voz, dados e vídeo. A tecnologia IPTV explora ao máximo as características da Internet, com a utilização de mecanismos de Qualidade de Serviço. Surge ainda como uma revolução dentro do panorama televisivo, abrindo portas a novos investimentos por parte das empresas de telecomunicações. A Internet também permite fazer chamadas telefónicas sobre a rede IP. Este serviço é denominado VoIP (Voz sobre IP) e encontra-se em funcionamento já há algum tempo. Desta forma surge a oportunidade de poder oferecer ao consumidor final, um serviço que inclua os serviços de Internet, de VoIP e de IPTV denominado serviço Triple Play. O serviço Triple Play veio obrigar a revisão de toda a rede de transporte de forma a preparar a mesma para suportar este serviço de uma forma eficiente (QoS), resiliente (recuperação de falhas) e optimizado (Engenharia de tráfego). Em redes de telecomunicações, tanto a quebra de uma ligação como a congestão nas redes pode interferir nos serviços oferecidos aos consumidores finais. Mecanismos de sobrevivência são aplicados de forma a garantir a continuidade do serviço mesmo na ocorrência de uma falha. O objectivo desta dissertação é propor uma solução de uma arquitectura de rede capaz de suportar o serviço Triple Play de uma forma eficiente, resiliente e optimizada através de um encaminhamento óptimo ou quase óptimo. No âmbito deste trabalho, é realizada a análise do impacto das estratégias de encaminhamento que garantem a eficiência, sobrevivência e optimização das redes IP existentes, bem como é determinado o número limite de clientes permitido numa situação de pico de uma dada rede. Neste trabalho foram abordados os conceitos de Serviços Triple Play, Redes de Acesso, Redes Núcleo, Qualidade de Serviço, MPLS (Multi-Protocolo Label Switching), Engenharia de Tráfego e Recuperação de falhas. As conclusões obtidas das simulações efectuadas através do simulador de rede NS-2.33 (Network Simulator versão 2.33) serviram para propor a solução da arquitectura de uma rede capaz de suportar o serviço Triple Play de uma forma eficiente, resiliente e optimizada.
Resumo:
O presente documento consiste numa reflexão sobre a importância das várias actividades e orientação ao longo período de actividade lectiva na formação de professores de Matemática do 3º ciclo do Ensino Básico e do Secundário. É feita uma revisão de literatura para dar a conhecer alguns trabalhos realizados por outros autores, trabalhos estes que abordam a importância do ensino e a forma como deve ser encarado para que seja adequado às necessidades da sociedade actual. Nesta revisão foram abordados temas como: a Matemática, o seu contributo e importância na sociedade; o papel do professor de Matemática e trabalhos que foram desenvolvidos sobre a formação de professores. São descritas também as actividades desenvolvidas com as turmas em estudo do 8º e 9º ano de escolaridade. Por fim é feita uma análise sobre todo o percurso desenvolvido, tendo especial atenção à forma como foram elaboradas as planificações, ao facto de estarem presentes quatro professores dentro da sala de aula, as reflexões feitas após as aulas e a realização de actividades extra aula.
Resumo:
In the last decade mobile wireless communications have witnessed an explosive growth in the user’s penetration rate and their widespread deployment around the globe. It is expected that this tendency will continue to increase with the convergence of fixed Internet wired networks with mobile ones and with the evolution to the full IP architecture paradigm. Therefore mobile wireless communications will be of paramount importance on the development of the information society of the near future. In particular a research topic of particular relevance in telecommunications nowadays is related to the design and implementation of mobile communication systems of 4th generation. 4G networks will be characterized by the support of multiple radio access technologies in a core network fully compliant with the Internet Protocol (all IP paradigm). Such networks will sustain the stringent quality of service (QoS) requirements and the expected high data rates from the type of multimedia applications to be available in the near future. The approach followed in the design and implementation of the mobile wireless networks of current generation (2G and 3G) has been the stratification of the architecture into a communication protocol model composed by a set of layers, in which each one encompasses some set of functionalities. In such protocol layered model, communications is only allowed between adjacent layers and through specific interface service points. This modular concept eases the implementation of new functionalities as the behaviour of each layer in the protocol stack is not affected by the others. However, the fact that lower layers in the protocol stack model do not utilize information available from upper layers, and vice versa, downgrades the performance achieved. This is particularly relevant if multiple antenna systems, in a MIMO (Multiple Input Multiple Output) configuration, are implemented. MIMO schemes introduce another degree of freedom for radio resource allocation: the space domain. Contrary to the time and frequency domains, radio resources mapped into the spatial domain cannot be assumed as completely orthogonal, due to the amount of interference resulting from users transmitting in the same frequency sub-channel and/or time slots but in different spatial beams. Therefore, the availability of information regarding the state of radio resources, from lower to upper layers, is of fundamental importance in the prosecution of the levels of QoS expected from those multimedia applications. In order to match applications requirements and the constraints of the mobile radio channel, in the last few years researches have proposed a new paradigm for the layered architecture for communications: the cross-layer design framework. In a general way, the cross-layer design paradigm refers to a protocol design in which the dependence between protocol layers is actively exploited, by breaking out the stringent rules which restrict the communication only between adjacent layers in the original reference model, and allowing direct interaction among different layers of the stack. An efficient management of the set of available radio resources demand for the implementation of efficient and low complexity packet schedulers which prioritize user’s transmissions according to inputs provided from lower as well as upper layers in the protocol stack, fully compliant with the cross-layer design paradigm. Specifically, efficiently designed packet schedulers for 4G networks should result in the maximization of the capacity available, through the consideration of the limitations imposed by the mobile radio channel and comply with the set of QoS requirements from the application layer. IEEE 802.16e standard, also named as Mobile WiMAX, seems to comply with the specifications of 4G mobile networks. The scalable architecture, low cost implementation and high data throughput, enable efficient data multiplexing and low data latency, which are attributes essential to enable broadband data services. Also, the connection oriented approach of Its medium access layer is fully compliant with the quality of service demands from such applications. Therefore, Mobile WiMAX seems to be a promising 4G mobile wireless networks candidate. In this thesis it is proposed the investigation, design and implementation of packet scheduling algorithms for the efficient management of the set of available radio resources, in time, frequency and spatial domains of the Mobile WiMAX networks. The proposed algorithms combine input metrics from physical layer and QoS requirements from upper layers, according to the crosslayer design paradigm. Proposed schedulers are evaluated by means of system level simulations, conducted in a system level simulation platform implementing the physical and medium access control layers of the IEEE802.16e standard.
Resumo:
Orientador: António Manuel Casimiro
Resumo:
This thesis presents general methods in non-Gaussian analysis in infinite dimensional spaces. As main applications we study Poisson and compound Poisson spaces. Given a probability measure μ on a co-nuclear space, we develop an abstract theory based on the generalized Appell systems which are bi-orthogonal. We study its properties as well as the generated Gelfand triples. As an example we consider the important case of Poisson measures. The product and Wick calculus are developed on this context. We provide formulas for the change of the generalized Appell system under a transformation of the measure. The L² structure for the Poisson measure, compound Poisson and Gamma measures are elaborated. We exhibit the chaos decomposition using the Fock isomorphism. We obtain the representation of the creation, annihilation operators. We construct two types of differential geometry on the configuration space over a differentiable manifold. These two geometries are related through the Dirichlet forms for Poisson measures as well as for its perturbations. Finally, we construct the internal geometry on the compound configurations space. In particular, the intrinsic gradient, the divergence and the Laplace-Beltrami operator. As a result, we may define the Dirichlet forms which are associated to a diffusion process. Consequently, we obtain the representation of the Lie algebra of vector fields with compact support. All these results extends directly for the marked Poisson spaces.
Resumo:
In this dissertation, different ways of combining neural predictive models or neural-based forecasts are discussed. The proposed approaches consider mostly Gaussian radial basis function networks, which can be efficiently identified and estimated through recursive/adaptive methods. Two different ways of combining are explored to get a final estimate – model mixing and model synthesis –, with the aim of obtaining improvements both in terms of efficiency and effectiveness. In the context of model mixing, the usual framework for linearly combining estimates from different models is extended, to deal with the case where the forecast errors from those models are correlated. In the context of model synthesis, and to address the problems raised by heavily nonstationary time series, we propose hybrid dynamic models for more advanced time series forecasting, composed of a dynamic trend regressive model (or, even, a dynamic harmonic regressive model), and a Gaussian radial basis function network. Additionally, using the model mixing procedure, two approaches for decision-making from forecasting models are discussed and compared: either inferring decisions from combined predictive estimates, or combining prescriptive solutions derived from different forecasting models. Finally, the application of some of the models and methods proposed previously is illustrated with two case studies, based on time series from finance and from tourism.
Resumo:
A utilização de vídeo e áudio sobre a Internet tem ganho nos últimos anos um interesse crescente. Na verdade, o interesse não é recente, mas os limites tecnológicos de variadíssimas ordens impediam o desenvolvimento e a utilização alargada de aplicações com media ricos. Os avanços nas tecnologias relacionadas com, por exemplo, a compressão, as redes e as ferramentas multimédia possibilitaram o desenvolvimento e o funcionamento, de uma forma alargada, de sistemas multimédia. O trabalho apresentado nesta dissertação descreve a especificação e a implementação de um sistema de formação à distância, designado inVídeo, que utiliza o vídeo como elemento central. O sistema tem como objectivo proporcionar formação por intermédio de uma aplicação que permite a visualização paralela de um vídeo com imagens ou animações, acompanhada com outros dados, como texto e acesso a ficheiros que podem ser descarregados. O enquadramento para esta aplicação surgiu das necessidades de formação contínua de um centro hospitalar, todavia a aplicação foi desenvolvida para poder ser utilizada noutras instituições. A especificação passou pela descrição do problema e sua modelação utilizando um método para o desenvolvimento de aplicações interactivas, o WISDOM. A implementação descreve o sistema desenvolvido, a justificação das opções tecnológicas e os resultados de um inquérito feito aos utilizadores do sistema. O desenvolvimento do sistema levou ao estudo e, em alguns casos, à utilização de um conjunto de tecnologias distintas. Os estudos iniciais abordaram as tecnologias que possibilitam a utilização do vídeo sobre a Internet e algumas das suas condicionantes. Seguiram-se a composição, sincronização e interactividade multimédia, e por fim o uso de metadados para conteúdos educacionais. A resposta dada pelos utilizadores durante a utilização do sistema foi bastante satisfatória e revelou um grande interesse no uso do vídeo sobre a Internet. A construção de aplicações para Internet utilizando media exigentes deixou de ser a tarefa complexa que era há alguns anos, isto devido aos avanços tecnológicos. Todavia o desenvolvimento ainda necessita de muita ponderação e do enquadramento de muitos factores relacionados com a codificação dos media e com a heterogeneidade das redes, dos utilizadores e dos equipamentos.
Resumo:
Os computadores e os jogos de consola, são um vocabulário bem comum dos jovens e das crianças de hoje. No entanto, na maior parte das escolas, o processo de ensino-aprendizagem continua a ser feito da forma tradicional através do recurso aos quadros pretos e aos cadernos. Este projecto pretende mostrar que, se as aulas forem dadas de uma forma mais interactiva, as crianças estarão mais motivadas e consequentemente a taxa de aprendizagem terá tendência a aumentar. Pretende-se então, utilizar a tecnologia – a Realidade Aumentada, acreditando que será uma mais valia para o ensino, pois permite estabelecer novas relações com o saber, ultrapassando os limites dos materiais tradicionais e contribuindo para a diminuição da distância entre os alunos e o conhecimento.
Resumo:
O seguinte trabalho está dividido em duas partes, a primeira parte consiste na análise dos problemas que podem surgir nas fundações de uma estrutura e determinar as suas origens, segundo Schnaid et al. (2005), as origens destes problemas podem ser: Caracterização do comportamento do maciço; Análise e projecto das fundações; Execução das fundações; Acções pós-conclusão das fundações; Degradação dos materiais constituintes das fundações. Ao longo do trabalho vai ser explicada cada uma destas causas, mostrando os problemas decorrentes e, sempre que possível, exemplificando de forma que seja mais fácil de compreender. Os problemas a nível das fundações são muito complexos de determinar uma vez que podem ter origens muito variadas e em diferentes fases da obra, para além de serem tecnicamente muito difíceis de solucionar e implicarem elevados custos adicionais. Na segunda parte vão ser analisados os vários tipos de movimentos de vertente. Sendo que vão ser analisados de forma mais profunda os movimentos do tipo fluxo (flow), especialmente do tipo creep, que são os movimentos predominantes no vale de Machico e que provocam inúmeros danos nas estruturas sobre ele assente, devido a sistemas de fundações inadequados para aquele tipo de solo e a falta de prospecção/caracterização dos solos. Também vão ser analisados os solos expansivos que formam os depósitos de vertente do vale de Machico assim como uma caracterização geotécnica destes depósitos. Será também feito um estudo das patologias que surgiram nas várias habitações afectadas no vale de Machico.Para finalizar vão ser apresentadas várias soluções para este tipo de solos que passam por medidas sobre o local onde vão ser implantadas as estruturas e por soluções técnicas sobre a própria estrutura que minimiza os efeitos do movimento do solo.