983 resultados para Ciências exatas


Relevância:

60.00% 60.00%

Publicador:

Resumo:

A soma de variáveis aleatórias com número de parcelas é aleatório, para além do evidente interesse conceptual e teórico, tem larga ressonância na investigação do processo de risco e em processos de ramificação. Reformulamos a teoria de Panjer (1981), que permite o cálculo iterativo do risco agregado, com o recurso a valores médios de uniformes, descrevendo uma extensão da classe de Panjer, e estudando em detalhe a equação funcional que a caracteriza. Aplicamos essas ideias na caracterização de aleatoriedade discreta, exemplificando com o comportamento das fêmeas de pássaros que investem na promiscuidade de parceiros para garantir a diversidade genética da progénie, tendo no entanto o cuidado de manter as aparências de fidelidade, para garantir a cooperação do parceiro no sucesso da ninhada. Apresentamos as transformadas de Laplace e funções geradoras numa perspectiva que leva a uma introdção natural de transformadas de Pareto, cuja relevância exemplificamos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho tem por objectivo desenvolver eimplementar metodologias relacionadas com a temática de térmica de edifícos, no sentido dequantificar e optimizar as perdas e ganhos decalor e os consumos de energia associados aosedifícios. Com base na teoria de transferência de calor e massa, foram construídos programas de cálculo numérico para simular, em regime estacionário (permanente) e não estacionário (transiente), os fluxos de calor e a distribuição das temperaturas em diferentes tipos de paredes comummente encontradas em Portugal e em particular na Região Autónoma da Madeira. Estes resultados permitiram analisar a eficácia dos diversos tipos de paredes estudadas bem como o risco de condensação em algumas dessas situações. Para além deste estudo houve a preocupação de desenvolver uma metodologia de análise económica relacionada com a espessura de isolamento a aplicar. Foram igualmente estudadas algumas medições simples de conservação de energia cuja implementação em edifícios será facilmente ustificada atendendo aos baixos períodos de retorno de investimento geralmente associados a estas medidas. Como resultado deste trabalho foi desenvolvida uma ferramenta de cálculo cuja aplicaçãovai permitir não só estimar o risco decondensação mas igualmente o campo de temperaturas no interior das paredes ao longo do período de tempo considerado, visando a optimização de soluções de isolamento térmico versus condições de conforto recomendadas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este documento reporta as fases de concepção, desenvolvimento e teste de uma unidade autónoma de interrogação de sensores bioquímicos, de custo reduzido e de fácil utilização, baseado na espectroscopia no domínio das frequências. Com este protótipo, é possível efectuar medições de concentrações bioquímicas de diferentes compostos, de acordo com a cabeça sensora utilizada. Devido ao número e à complexidade dos equipamentos de bancada necessários num esquema tradicional, este tipo de medições pode implicar um custo bastante elevado. Daí a importância deste projecto no desenvolvimento de uma alternativa que seja economicamente viável, utilizando novas técnicas de medição. Inicialmente este projecto começou por uma pesquisa significativa dos componentes electrónicos necessários para o desenvolvimento do sistema, seguindo-se uma escolha detalhada do material, de acordo com as características desejadas para o sistema. Um dos factores mais relevantes deste trabalho foi a introdução da instrumentação virtual, utilizada para controlar por intermédio de uma placa de aquisição de dados (DAQ), as componentes electrónicas do sistema e na implementação de um “lock-in” virtual, sendo este responsável pela recuperação dos sinais “enterrados” no ruído de fundo. O sistema desenvolvido é composto pelos seguintes módulos: O módulo de alimentação, que fornece as tensões e correntes para o funcionamento do sistema, o módulo de geração e modulação utilizado para gerar o sinal modulador e fornecer corrente ao LED, o módulo de detecção e amplificação, que recebe e eleva o nível do sinal emitido pela amostra, e por fim, o módulo de controlo e processamento, que recolhe esse sinal através da DAQ e processa-o por intermédio do “lock-in” virtual. Para avaliar o desempenho do sistema de interrogação foi estudada a resposta de um complexo de rutênio luminescente a diferentes temperaturas. São apresentados resultados em que o sistema desenvolvido é comparado com um sistema padrão e caracterizado face aos parâmetros do “lock-in” virtual, demonstrando-se as suas possibilidades e limitações.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As úlceras por pressão são um problema de saúde pública que tem vindo a centrar a atenção da comunidade científica da área da saúde. Em consonância, a prevenção constitui um aspecto fulcral do seu controlo. Esta dissertação centra-se na prevenção deste flagelo, desenvolvendo um protótipo para estudo da prevenção das úlceras por pressão através de sistemas de sensores. Um olhar sobre a temperatura corporal e a pressão, enquanto factores etiológicos, levou à construção de um sistema de monitorização destas variáveis. O sistema de monitorização é constituído pela matriz de sensores, pelo circuito de aquisição de dados da matriz, por um microcontrolador que percorre cada um dos nós da matriz, por um sistema de transmissão sem fios e um software de visualização dos dados da matriz. A matriz de sensores, aplicada numa superfície de contacto, cadeira ou cama, está associada a um computador e a um nó sensor sem fios, para que a informação relativa a cada doente possa ser visualizada local e remotamente. Local, porque os dados de temperatura e pressão podem ser acedidos na unidade de cuidados e remotamente, pois a informação enviada sem fios através de um nó XBee, pode ser acedida num computador central, noutra sala, permitindo a monitorização, interpretação e registo dos dados. São apresentadas, neste trabalho, as matrizes de temperatura, uma com 64 sensores (8x8), que serviu de base à construção do circuito de aquisição de dados, outra com 256 sensores (16x16) de temperatura e ainda uma matriz de pressão. Para a matriz de sensores de pressão de 16x16, foram construídos manualmente cada um dos 256 sensores. Foi criado o software de visualização dos dados, obtidos da matriz, utilizando o MatLab, através do qual o utilizador final do sistema poderá aceder aos dados gráfica e numericamente. A aplicação do sistema desenvolvido permitirá medir, em situação de contacto, as alterações da temperatura da pele e pressão, factores estes associados à detecção precoce de úlceras de pressão.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Although formal methods can dramatically increase the quality of software systems, they have not widely been adopted in software industry. Many software companies have the perception that formal methods are not cost-effective cause they are plenty of mathematical symbols that are difficult for non-experts to assimilate. The Java Modelling Language (short for JML) Section 3.3 is an academic initiative towards the development of a common formal specification language for Java programs, and the implementation of tools to check program correctness. This master thesis work shows how JML based formal methods can be used to formally develop a privacy sensitive Java application. This is a smart card application for managing medical appointments. The application is named HealthCard. We follow the software development strategy introduced by João Pestana, presented in Section 3.4. Our work influenced the development of this strategy by providing hands-on insight on challenges related to development of a privacy sensitive application in Java. Pestana’s strategy is based on a three-step evolution strategy of software specifications, from informal ones, through semiformal ones, to JML formal specifications. We further prove that this strategy can be automated by implementing a tool that generates JML formal specifications from a welldefined subset of informal software specifications. Hence, our work proves that JML-based formal methods techniques are cost-effective, and that they can be made popular in software industry. Although formal methods are not popular in many software development companies, we endeavour to integrate formal methods to general software practices. We hope our work can contribute to a better acceptance of mathematical based formalisms and tools used by software engineers. The structure of this document is as follows. In Section 2, we describe the preliminaries of this thesis work. We make an introduction to the application for managing medical applications we have implemented. We also describe the technologies used in the development of the application. This section further illustrates the Java Card Remote Method Invocation communication model used in the medical application for the client and server applications. Section 3 introduces software correctness, including the design by contract and the concept of contract in JML. Section 4 presents the design structure of the application. Section 5 shows the implementation of the HealthCard. Section 6 describes how the HealthCard is verified and validated using JML formal methods tools. Section 7 includes some metrics of the HealthCard implementation and specification. Section 8 presents a short example of how a client-side of a smart card application can be implemented while respecting formal specifications. Section 9 describes a prototype tools to generate JML formal specifications from informal specifications automatically. Section 10 describes some challenges and main ideas came acrorss during the development of the HealthCard. The full formal specification and implementation of the HealthCard smart card application presented in this document can be reached at https://sourceforge.net/projects/healthcard/.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Actualmente o desenvolvimento de aplicações baseadas na Web é uma área em crescimento exponencial, graças aos benefícios que estas trouxeram consigo. Com a crescente utilização da Web e a sua evolução como plataforma, surgiram novas tecnologias que vieram revolucionar o desenvolvimento de aplicações sobre esta plataforma. Com interfaces mais ricas e consequentemente mais dinâmicas, este tipo de aplicações assemelham-se às típicas aplicações Desktop com a diferença que estão a ser executadas em um ambiente completamente distinto, um ambiente partilhado e de fácil acesso, sendo o browser a aplicação universal de acesso a qualquer aplicação Web. Designadas serviços, as aplicações Web fornecem funcionalidades semelhantes às das aplicações Desktop, sendo na maioria das vezes software gratuito. Sendo a Google a grande pioneira nesta área, outras grandes entidades viram aqui a oportunidade de distribuir o seu software de uma forma fácil e barata, ficando esta de imediato disponível a milhões de utilizadores. Embora as aplicações Web se assemelhem às aplicações Desktop, ao seu processo de desenvolvimento surgem um conjunto de novos desafios provocados pelo facto de estas se encontrarem em um ambiente completamente distinto.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This thesis presents a JML-based strategy that incorporates formal specifications into the software development process of object-oriented programs. The strategy evolves functional requirements into a “semi-formal” requirements form, and then expressing them as JML formal specifications. The strategy is implemented as a formal-specification pseudo-phase that runs in parallel with the other phase of software development. What makes our strategy different from other software development strategies used in literature is the particular use of JML specifications we make all along the way from requirements to validation-and-verification.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Image stitching is the process of joining several images to obtain a bigger view of a scene. It is used, for example, in tourism to transmit to the viewer the sensation of being in another place. I am presenting an inexpensive solution for automatic real time video and image stitching with two web cameras as the video/image sources. The proposed solution relies on the usage of several markers in the scene as reference points for the stitching algorithm. The implemented algorithm is divided in four main steps, the marker detection, camera pose determination (in reference to the markers), video/image size and 3d transformation, and image translation. Wii remote controllers are used to support several steps in the process. The built‐in IR camera provides clean marker detection, which facilitates the camera pose determination. The only restriction in the algorithm is that markers have to be in the field of view when capturing the scene. Several tests where made to evaluate the final algorithm. The algorithm is able to perform video stitching with a frame rate between 8 and 13 fps. The joining of the two videos/images is good with minor misalignments in objects at the same depth of the marker,misalignments in the background and foreground are bigger. The capture process is simple enough so anyone can perform a stitching with a very short explanation. Although real‐time video stitching can be achieved by this affordable approach, there are few shortcomings in current version. For example, contrast inconsistency along the stitching line could be reduced by applying a color correction algorithm to every source videos. In addition, the misalignments in stitched images due to camera lens distortion could be eased by optical correction algorithm. The work was developed in Apple’s Quartz Composer, a visual programming environment. A library of extended functions was developed using Xcode tools also from Apple.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The following document proposes a traceability solution for model-driven development. There as been already previous work done in this area, but so far there has not been yet any standardized way for exchanging traceability information, thus the goal of this project developed and documented here is not to automatize the traceability process but to provide an approach to achieve traceability that follows OMG standards, making traceability information exchangeable between tools that follow the same standards. As such, we propose a traceability meta-model as an extension of MetaObject Facility (MOF)1. Using MetaSketch2 modeling language workbench, we present a modeling language for traceability information. This traceability information then can be used for tool cooperation. Using Meta.Tracer (our tool developed for this thesis), we enable the users to establish traceability relationships between different traceability elements and offer a visualization for the traceability information. We then demonstrate the benefits of using a traceability tool on a software development life cycle using a case study. We finalize by commenting on the work developed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A presença de aminas biogénicas em alimentos é um ponto crítico da segurança alimentar dada a sua implicação em fenómenos de intoxicações alimentares. Com a realização deste trabalho pretendeu-se contribuir para um melhor esclarecimento desta temática, actuando-se a dois níveis: numa primeira fase procedeu-se ao desenvolvimento e validação de uma nova metodologia analítica para a determinação simultânea de quatro aminas biogénicas (histamina, cadaverina, tiramina e triptamina) presentes no pescado; numa segunda fase procedeu-se à quantificação dos teores das aminas biogénicas em amostras de tunídeos. O desenvolvimento da metodologia quantitativa baseou-se na utilização da técnica de cromatografia líquida acoplada à espectrometria de massa em tandem (LC-MS/MS), tendo a preparação dos extractos para análise envolvido a extracção das aminas biogénicas do músculo de tunídeos com ácido clorídrico e a purificação dos extractos obtidos por SPE. Como qualquer outro método cromatográfico, a metodologia de LC-MS/MS desenvolvida exigiu a optimização de vários parâmetros como: a concentração do padrão interno, a metodologia de extracção em fase sólida (SPE), composição e fluxo da fase móvel, volume de injecção, determinação dos tempos de retenção, condições de ionização e condições de fragmentação. A validação metodologia foi realizada através da avaliação de alguns parâmetros analíticos, tal como o ajuste do modelo de calibração, precisão (repetibilidade e precisão intermédia), limite de quantificação, limite de detecção e percentagem de recuperação. De modo a potenciar a sensibilidade e selectividade permitida pelo equipamento analítico e com o objectivo de efectuar a quantificação dos compostos em análise, a aquisição de dados foi realizada em modo MRM. Uma vez que se utilizou um padrão interno (heptilamina), a proporcionalidade da intensidade do sinal das aminas biogénicas em relação a uma determinada concentração foi dada em termos de áreas relativas, que corresponde à razão da intensidade do sinal da amina biogénica/intensidade do sinal do padrão interno (analito/P.I.). A metodologia analítica desenvolvida foi aplicada à determinação dos teores de aminas biogénicas nas amostras de músculo de tunídeos recolhidas, com uma regularidade semanal, em diferentes estabelecimentos comerciais no decorrer da época intensiva da sua captura (de Abril a Setembro de 2009). Os teores de aminas biogénicas encontrados, entre 2,63 mg/kg (triptamina) e 132,78 mg/kg (tiramina), não ultrapassaram os limites impostos pela Comunidade Europeia para os teores de histamina e para os teores de aminas totais; sendo que, em cerca de 87% das 59 amostras analisadas não foram encontrados teores quantificáveis para as quatro aminas biogénicas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os quadrados mágicos, de um modo geral, são abordados como uma poderosa ferramenta pedagógica capaz de despertar e aprimorar o raciocínio lógico. São inúmeros os projectos que objectivam a realização de actividades lúdicas capazes de aprimorar capacidades humanas como o raciocínio lógico. Segundo [Leo05], na Alemanha, os quadrados mágicos chegam a ser referência nos manuais das escolas primárias. Contrariamente à maioria dos trabalhos em quadrados mágicos, a grande preocupação presente neste não foi propriamente explorar a potencialidade dos quadrados mágicos como utensílio dogmático no desenvolvimento de raciocínios. Neste trabalho a nossa atenção incidiu na resolução de um problema de combinatória proposto por Henry Dudeney, mais concretamente o “Enigma do Monge”. Foi desenvolvida uma estratégia própria para solucionar o respectivo enigma. Foram ainda analisadas outras questões inerentes ao mesmo problema. Verificámos ainda que as relações de simetria desempenham um papel preponderante, no sentido em que o seu conhecimento facilitou a resolução do problema. Contudo, e contrariamente ao que prevíamos, verificou-se que este problema estava fortemente relacionado com os quadrados mágicos. Mais, existem propriedades verificadas no enigma que são determinantes na construção de quadrados mágicos de ordem 3.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A resistência a múltiplos fármacos é um grande problema na terapia anti-cancerígena, sendo a glicoproteína-P (P-gp) uma das responsáveis por esta resistência. A realização deste trabalho incidiu principalmente no desenvolvimento de modelos matemáticos/estatísticos e “químicos”. Para os modelos matemáticos/estatísticos utilizamos métodos de Machine Learning como o Support Vector Machine (SVM) e o Random Forest, (RF) em relação aos modelos químicos utilizou-se farmacóforos. Os métodos acima mencionados foram aplicados a diversas proteínas P-gp, p53 e complexo p53-MDM2, utilizando duas famílias: as pifitrinas para a p53 e flavonóides para P-gp e, em menor medida, um grupo diversificado de moléculas de diversas famílias químicas. Nos modelos obtidos pelo SVM quando aplicados à P-gp e à família dos flavonóides, obtivemos bons valores através do kernel Radial Basis Function (RBF), com precisão de conjunto de treino de 94% e especificidade de 96%. Quanto ao conjunto de teste com previsão de 70% e especificidade de 67%, sendo que o número de falsos negativos foi o mais baixo comparativamente aos restantes kernels. Aplicando o RF à família dos flavonóides verificou-se que o conjunto de treino apresenta 86% de precisão e uma especificidade de 90%, quanto ao conjunto de teste obtivemos uma previsão de 70% e uma especificidade de 60%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Repetindo o procedimento anterior (RF) e utilizando um total de 63 descritores, os resultados apresentaram valores inferiores obtendo-se para o conjunto de treino 79% de precisão e 82% de especificidade. Aplicando o modelo ao conjunto de teste obteve-se 70% de previsão e 60% de especificidade. Comparando os dois métodos, escolhemos o método SVM com o kernel RBF como modelo que nos garante os melhores resultados de classificação. Aplicamos o método SVM à P-gp e a um conjunto de moléculas não flavonóides que são transportados pela P-gp, obteve-se bons valores através do kernel RBF, com precisão de conjunto de treino de 95% e especificidade de 93%. Quanto ao conjunto de teste, obtivemos uma previsão de 70% e uma especificidade de 69%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Aplicou-se o método do farmacóforo a três alvos, sendo estes, um conjunto de inibidores flavonóides e de substratos não flavonóides para a P-gp, um grupo de piftrinas para a p53 e um conjunto diversificado de estruturas para a ligação da p53-MDM2. Em cada um dos quatro modelos de farmacóforos obtidos identificou-se três características, sendo que as características referentes ao anel aromático e ao dador de ligações de hidrogénio estão presentes em todos os modelos obtidos. Realizando o rastreio em diversas bases de dados utilizando os modelos, obtivemos hits com uma grande diversidade estrutural.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As redes de comunicação de nova geração, onde se incluem as tecnologias de fibra óptica, têm sido uma área na qual tem havido imensa investigação e desenvolvimento. As tecnologias de FTTx, em especial a FTTH, já são uma realidade em milhares de habitações em variadíssimos países. A presente dissertação descreve um estudo da tecnologia GPON - Gigabit Passive Optical Network - nas instalações da EMACOM, Telecomunicações da Madeira, Unipessoal, Lda. Inicialmente são enumerados os requisitos necessários, quer seja por parte dos clientes como dos fornecedores. Em seguida apresenta-se o padrão do ITU-T G.984, contendo as várias camadas, tais como a camada física e a camada de convergência de transmissão, abordando também a estrutura das tramas e as principais características do referido padrão. Depois é dado a conhecer ao leitor os elementos que constituem uma rede GPON, sejam estes equipamentos passivos ou activos. Seguidamente foi descrito o planeamento para o projecto proposto onde foram estudados os vários tipos de arquitectura utilizados pelo FTTH e definiu-se qual seria a melhor opção para a zona urbana considerada. Utilizou-se o ArcMap da ESRI Portugal - Sistemas e Informação Geográfica, S.A, criando uma base de dados e um esquema da própria rede num mapa da freguesia de São Martinho. Utilizou-se o AutoCad, onde foram elaborados vários sinópticos da rede da área escolhida, nos quais englobam a rede de alimentação, e a rede de distribuição. Toda a informação ilustrada nos sinópticos foi colocada numa folha de cálculo de Excel sendo mais rápida a sua pesquisa. Posteriormente, criou-se uma lista de material com as quantidades necessárias a utilizar para a sua implementação. Para verificar a viabilidade do projecto em termos de potência óptica foi efectuado um cálculo do balanço de potência. Assim, é considerada a ligação mais distante para averiguar se existe potência óptica suficiente para cobrir essa ligação. Caso seja viável, então os outros pontos de distribuição ópticos com distâncias inferiores também estarão suficientemente alimentados em termos ópticos. São ainda abordados os vários tipos de perdas nas fibras ópticas, as definições de link power e link loss budgets. Finalmente, foram efectuados testes de simulação com o programa OptiSystem simulando a ligação usada para o cálculo de potência podendo-se assim comparar valores e verificar o desempenho do sistema através do diagrama de olho obtido.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

INTRODUCTION With the advent of Web 2.0, social networking websites like Facebook, MySpace and LinkedIn have become hugely popular. According to (Nilsen, 2009), social networking websites have global1 figures of almost 250 millions unique users among the top five2, with the time people spend on those networks increasing 63% between 2007 and 2008. Facebook alone saw a massive growth of 566% in number of minutes in the same period of time. Furthermore their appeal is clear, they enable users to easily form persistent networks of friends with whom they can interact and share content. Users then use those networks to keep in touch with their current friends and to reconnect with old friends. However, online social network services have rapidly evolved into highly complex systems which contain a large amount of personally salient information derived from large networks of friends. Since that information varies from simple links to music, photos and videos, users not only have to deal with the huge amount of data generated by them and their friends but also with the fact that it‟s composed of many different media forms. Users are presented with increasing challenges, especially as the number of friends on Facebook rises. An example of a problem is when a user performs a simple task like finding a specific friend in a group of 100 or more friends. In that case he would most likely have to go through several pages and make several clicks till he finds the one he is looking for. Another example is a user with more than 100 friends in which his friends make a status update or another action per day, resulting in 10 updates per hour to keep up. That is plausible, especially since the change in direction of Facebook to rival with Twitter, by encouraging users to update their status as they do on Twitter. As a result, to better present the web of information connected to a user the use of better visualizations is essential. The visualizations used nowadays on social networking sites haven‟t gone through major changes during their lifetimes. They have added more functionality and gave more tools to their users, but still the core of their visualization hasn‟t changed. The information is still presented in a flat way in lists/groups of text and images which can‟t show the extra connections pieces of information. Those extra connections can give new meaning and insights to the user, allowing him to more easily see if that content is important to him and the information related to it. However showing extra connections of information but still allowing the user to easily navigate through it and get the needed information with a quick glance is difficult. The use of color coding, clusters and shapes becomes then essential to attain that objective. But taking into consideration the advances in computer hardware in the last decade and the software platforms available today, there is the opportunity to take advantage of 3D. That opportunity comes in because we are at a phase were the hardware and the software available is ready for the use of 3D in the web. With the use of the extra dimension brought by 3D, visualizations can be constructed to show the content and its related information to the user at the same screen and in a clear way. Also it would allow a great deal of interactivity. Another opportunity to create better information‟s visualization presents itself in the form of the open APIs, specifically the ones made available by the social networking sites. Those APIs allow any developers to create their own applications or sites taking advantage of the huge amount of information there is on those networks. Specifically to this case, they open the door for the creation of new social network visualizations. Nevertheless, the third dimension is by itself not enough to create a better interface for a social networking website, there are some challenges to overcome. One of those challenges is to make the user understand what the system is doing during the interaction with the user. Even though that is important in 2D visualizations, it becomes essential in 3D due to the extra dimension. To overcome that challenge it‟s necessary the use of the principles of animations defined by the artists at Walt Disney Studios (Johnston, et al., 1995). By applying those principles in the development of the interface, the actions of the system in response to the user inputs became clear and understandable. Furthermore, a user study needs to be performed so the users‟ main goals and motivations, while navigating the social network, are revealed. Their goals and motivations are important in the construction of an interface that reflects the user expectations for the interface, but also helps in the development of appropriate metaphors. Those metaphors have an important role in the interface, because if correctly chosen they help the user understand the elements of the interface instead of making him memorize it. The last challenge is the use of 3D visualization on the web, since there have been several attempts to bring 3D into it, mainly with the various versions of VRML which were destined to failure due to the hardware limitations at the time. However, in the last couple of years there has been a movement to make the necessary tools to finally allow developers to use 3D in a useful way, using X3D or OpenGL but especially flash. This thesis argues that there is a need for a better social network visualization that shows all the dimensions of the information connected to the user and that allows him to move through it. But there are several characteristics the new visualization has to possess in order for it to present a real gain in usability to Facebook‟s users. The first quality is to have the friends at the core of its design, and the second to make use of the metaphor of circles of friends to separate users in groups taking into consideration the order of friendship. To achieve that several methods have to be used, from the use of 3D to get an extra dimension for presenting relevant information, to the use of direct manipulation to make the interface comprehensible, predictable and controllable. Moreover animation has to be use to make all the action on the screen perceptible to the user. Additionally, with the opportunity given by the 3D enabled hardware, the flash platform, through the use of the flash engine Papervision3D and the Facebook platform, all is in place to make the visualization possible. But even though it‟s all in place, there are challenges to overcome like making the system actions in 3D understandable to the user and creating correct metaphors that would allow the user to understand the information and options available to him. This thesis document is divided in six chapters, with Chapter 2 reviewing the literature relevant to the work described in this thesis. In Chapter 3 the design stage that resulted in the application presented in this thesis is described. In Chapter 4, the development stage, describing the architecture and the components that compose the application. In Chapter 5 the usability test process is explained and the results obtained through it are presented and analyzed. To finish, Chapter 6 presents the conclusions that were arrived in this thesis.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As redes de comunicação sem fios são uma área de grande desenvolvimento. As tecnologias progridem e criam-se novas oportunidades de implementação de novos dispositivos nesta área. Neste tipo de redes, encontram-se as redes de sensores sem fios (WSN- Wireless Sensor Networks), que são constituídas por vários dispositivos (Nós Sensores) que colaboram entre si, para recolher e encaminhar informação sobre um determinado fenómeno físico até uma estação base. A um outro nível, a preservação das obras de arte é uma preocupação fundamental de todos os Museus. Existe a necessidade de conservar ao máximo as características genuínas de cada artefacto. Para tal, torna-se essencial uma monitorização e controlo de alguns factores ambientais, que podem danificar ou alterar as características dos materiais. Essa monitorização é realizada nos museus da Madeira, mas de uma forma manual e recorrendo a aparelhos que são dispendiosos e um pouco arcaicos. Assim sendo, tornou-se necessário encontrar uma solução, para a realização dessa tarefa de uma forma automática e contínua. As WSN oferecem uma resposta para estas necessidades, surgindo assim o projecto WISE-MUSE, que visa a monitorização ambiental para a conservação de obras de arte e artigos históricos, através de redes sem fios.Portanto, este projecto de Mestrado em Telecomunicações e Redes tem como área de acção a camada física da arquitectura do sistema WISE-MUSE. Neste sentido, desenvolveu-se um conjunto de dispositivos electrónicos, para monitorização e controlo de factores climáticos no Museu de arte contemporânea do Funchal. A ligação entre dispositivos e transmissão dos dados recolhidos foi assegurada através da implementação de uma rede sem fios. Ao nível dos nós sensores construídos, os desenvolvimentos mais importantes tiveram como meta a minimização de custos, consumo energético e dimensões dos mesmos. Além dos sensores, foram desenvolvidos outros componentes da rede, nomeadamente dispositivos routers e um dispositivo que permite o controlo automático da humidade.