24 resultados para Software free
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
We characterize the elastic contribution to the surface free energy of a nematic liquid crystal in the presence of a sawtooth substrate. Our findings are based on numerical minimization of the Landau-de Gennes model and analytical calculations on the Frank-Oseen theory. The nucleation of disclination lines (characterized by non-half-integer winding numbers) in the wedges and apexes of the substrate induces a leading order proportional to q ln q to the elastic contribution to the surface free-energy density, with q being the wave number associated with the substrate periodicity.
Resumo:
O presente projecto tem como objectivo a disponibilização de uma plataforma de serviços para gestão e contabilização de tempo remunerável, através da marcação de horas de trabalho, férias e faltas (com ou sem justificação). Pretende-se a disponibilização de relatórios com base nesta informação e a possibilidade de análise automática dos dados, como por exemplo excesso de faltas e férias sobrepostas de trabalhadores. A ênfase do projecto está na disponibilização de uma arquitectura que facilite a inclusão destas funcionalidades. O projecto está implementado sobre a plataforma Google App Engine (i.e. GAE), de forma a disponibilizar uma solução sob o paradigma de Software as a Service, com garantia de disponibilidade e replicação de dados. A plataforma foi escolhida a partir da análise das principais plataformas cloud existentes: Google App Engine, Windows Azure e Amazon Web Services. Foram analisadas as características de cada plataforma, nomeadamente os modelos de programação, os modelos de dados disponibilizados, os serviços existentes e respectivos custos. A escolha da plataforma foi realizada com base nas suas características à data de iniciação do presente projecto. A solução está estruturada em camadas, com as seguintes componentes: interface da plataforma, lógica de negócio e lógica de acesso a dados. A interface disponibilizada está concebida com observação dos princípios arquitecturais REST, suportando dados nos formatos JSON e XML. A esta arquitectura base foi acrescentada uma componente de autorização, suportada em Spring-Security, sendo a autenticação delegada para os serviços Google Acounts. De forma a permitir o desacoplamento entre as várias camadas foi utilizado o padrão Dependency Injection. A utilização deste padrão reduz a dependência das tecnologias utilizadas nas diversas camadas. Foi implementado um protótipo, para a demonstração do trabalho realizado, que permite interagir com as funcionalidades do serviço implementadas, via pedidos AJAX. Neste protótipo tirou-se partido de várias bibliotecas javascript e padrões que simplificaram a sua realização, tal como o model-view-viewmodel através de data binding. Para dar suporte ao desenvolvimento do projecto foi adoptada uma abordagem de desenvolvimento ágil, baseada em Scrum, de forma a implementar os requisitos do sistema, expressos em user stories. De forma a garantir a qualidade da implementação do serviço foram realizados testes unitários, sendo também feita previamente a análise da funcionalidade e posteriormente produzida a documentação recorrendo a diagramas UML.
Resumo:
Recent literature has proved that many classical pricing models (Black and Scholes, Heston, etc.) and risk measures (V aR, CV aR, etc.) may lead to “pathological meaningless situations”, since traders can build sequences of portfolios whose risk leveltends to −infinity and whose expected return tends to +infinity, i.e., (risk = −infinity, return = +infinity). Such a sequence of strategies may be called “good deal”. This paper focuses on the risk measures V aR and CV aR and analyzes this caveat in a discrete time complete pricing model. Under quite general conditions the explicit expression of a good deal is given, and its sensitivity with respect to some possible measurement errors is provided too. We point out that a critical property is the absence of short sales. In such a case we first construct a “shadow riskless asset” (SRA) without short sales and then the good deal is given by borrowing more and more money so as to invest in the SRA. It is also shown that the SRA is interested by itself, even if there are short selling restrictions.
Resumo:
As teachers, we are challenged everyday to solve pedagogical problems and we have to fight for our students’ attention in a media rich world. I will talk about how we use ICT in Initial Teacher Training and give you some insight on what we are doing. The most important benefit of using ICT in education is that it makes us reflect on our practice. There is no doubt that our classrooms need to be updated, but we need to be critical about every peace of hardware, software or service that we bring into them. It is not only because our budgets are short, but also because e‐learning is primarily about learning, not technology. Therefore, we need to have the knowledge and skills required to act in different situations, and choose the best tool for the job. Not all subjects are suitable for e‐learning, nor do all students have the skills to organize themselves their own study times. Also not all teachers want to spend time programming or learning about instructional design and metadata. The promised land of easy use of authoring tools (e.g. eXe and Reload) that will lead to all teachers become Learning Objects authors and share these LO in Repositories, all this failed, like previously HyperCard, Toolbook and others. We need to know a little bit of many different technologies so we can mobilize this knowledge when a situation requires it: integrate e‐learning technologies in the classroom, not a flipped classroom, just simple tools. Lecture capture, mobile phones and smartphones, pocket size camcorders, VoIP, VLE, live video broadcast, screen sharing, free services for collaborative work, save, share and sync your files. Do not feel stressed to use everything, every time. Just because we have a whiteboard does not mean we have to make it the centre of the classroom. Start from where you are, with your preferred subject and the tools you master. Them go slowly and try some new tool in a non‐formal situation and with just one or two students. And you don’t need to be alone: subscribe a mailing list and share your thoughts with other teachers in a dedicated forum, even better if both are part of a community of practice, and share resources. We did that for music teachers and it was a success, in two years arriving at 1.000 members. Just do it.
Resumo:
We have performed Surface Evolver simulations of two-dimensional hexagonal bubble clusters consisting of a central bubble of area lambda surrounded by s shells or layers of bubbles of unit area. Clusters of up to twenty layers have been simulated, with lambda varying between 0.01 and 100. In monodisperse clusters (i.e., for lambda = 1) [M.A. Fortes, F Morgan, M. Fatima Vaz, Philos. Mag. Lett. 87 (2007) 561] both the average pressure of the entire Cluster and the pressure in the central bubble are decreasing functions of s and approach 0.9306 for very large s, which is the pressure in a bubble of an infinite monodisperse honeycomb foam. Here we address the effect of changing the central bubble area lambda. For small lambda the pressure in the central bubble and the average pressure were both found to decrease with s, as in monodisperse clusters. However, for large,, the pressure in the central bubble and the average pressure increase with s. The average pressure of large clusters was found to be independent of lambda and to approach 0.9306 asymptotically. We have also determined the cluster surface energies given by the equation of equilibrium for the total energy in terms of the area and the pressure in each bubble. When the pressures in the bubbles are not available, an approximate equation derived by Vaz et al. [M. Fatima Vaz, M.A. Fortes, F. Graner, Philos. Mag. Lett. 82 (2002) 575] was shown to provide good estimations for the cluster energy provided the bubble area distribution is narrow. This approach does not take cluster topology into account. Using this approximate equation, we find a good correlation between Surface Evolver Simulations and the estimated Values of energies and pressures. (C) 2008 Elsevier B.V. All rights reserved.
Resumo:
Em suma este trabalho de projeto visa a criação de uma ferramenta que permita a gestão dos transportes para a recolha de matéria-prima necessária ao bom funcionamento da fábrica de produção automóvel Volkswagen Autoeuropa num ambiente dinâmico, sendo esta desenvolvida para responder às necessidades da empresa. Assim foi desenvolvido o protótipo Milk Run Software que consiste basicamente na integração de informação fornecida pela empresa relativa a consumos de materiais provenientes de ordens de produção, fornecedores e transportes. Com base nestes dados e recurso a sistemas externos é efetuada a georreferenciação de fornecedores para que exista a noção de proximidade entre estes, além disso foi construído um sistema de decisão, para que com base nos consumos (peças, pesos e volumes), se consigam determinar e gerir as rotas de transportes da empresa Volkswagen Autoeuropa com base no conceito Milk Run, que consiste na otimização do transporte de peças para montagem de veículos, no qual tem em conta a localização geográfica, o volume ou peso a transportar, as limitações físicas dos veículos de transporte, bem como o número de paragens máximas (cargas a efetuar no percurso). Neste projeto são utilizadas diversas técnicas de análise protagonizadas para a construção de ferramentas com o recurso à Engenharia de Software, e a algumas técnicas na área de pesquisa em espaços de estado para auxiliar o conceito Milk Run para resolução dos problemas encontrados.
Resumo:
A utilização de equipamentos de climatização é cada vez mais frequente, e surgem novas tecnologias para aumentar a eficiência do processo, e neste caso, a opção da instalação de um sistema de Unidade de Tratamento de Ar com Economizador é a fundamental temática deste trabalho de dissertação. O “Free-Cooling” baseia-se na utilização total ou parcial do ar exterior para proceder à climatização de um espaço, quando se verificam as condições ótimas para o processo, e quando o sistema apresenta um controlador que permita gerir a abertura dos registos face à temperatura exterior e interior medida. A análise das condições exteriores e interiores é fundamental para dimensionar um Economizador. É necessário determinar o tipo de clima do local para fazer a seleção do tipo de controlo do processo, e recolher também, o perfil de temperaturas exterior para justificar a utilização de “Free-Cooling” no local. A determinação das condições interiores como a quantificação da utilização da iluminação, ocupação e equipamentos, é necessária para determinar a potência das baterias de arrefecimento ou aquecimento, e no caso de ser utilizado “Free-Cooling”, determinar o caudal de ar exterior a insuflar. O balanço térmico das instalações explicita todas as cargas influentes no edifício, e permite quantificar a potência necessária para climatização. Depois, adicionando o Economizador no sistema e comparando os dois sistemas, verifica-se a redução dos custos de utilização da bateria de arrefecimento. O desenvolvimento de um algoritmo de controlo é fundamental para garantir a eficiência do Economizador, onde o controlo dos registos de admissão e retorno de ar é obrigatoriamente relacionado com a leitura dos sensores de temperatura exterior e interior. A quantidade de ar novo insuflado no espaço depende, por fim, da relação entre a carga sensível do local e a diferença de temperatura lida entre os dois sensores.
Resumo:
Biodiesel is the main alternative to fossil diesel and it may be produced from different feedstocks such as semi-refined vegetable oils, waste frying oils or animal fats. However, these feedstocks usually contain significant amounts of free fatty acids (FFA) that make them inadequate for the direct base catalyzed transesterification reaction (where the FFA content should be lower than 4%). The present work describes a possible method for the pre-treatment of oils with a high content of FFA (20 to 50%) by esterification with glycerol. In order to reduce the FFA content, the reaction between these FFA and an esterification agent is carried out before the transesterification reaction. The reaction kinetics was studied in terms of its main factors such astemperature, % of glycerin excess, % of catalyst used, stirring velocity and type of catalyst used. The results showed that glycerolysis is a promising pretreatment to acidic oils or fats (> 20%) as they led to the production of an intermediary material with a low content of FFA that can be used directly in thetransesterification reaction for the production of biodiesel. (C) 2011 Elsevier B.V. All rights reserved.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.
Resumo:
This paper describes an implementation of a long distance echo canceller, operating on full-duplex with hands-free and in real-time with a single Digital Signal Processor (DSP). The proposed solution is based on short length adaptive filters centered on the positions of the most significant echoes, which are tracked by time delay estimators, for which we use a new approach. To deal with double talking situations a speech detector is employed. The floating-point DSP TMS320C6713 from Texas Instruments is used with software written in C++, with compiler optimizations for fast execution. The resulting algorithm enables long distance echo cancellation with low computational requirements, suited for embbeded systems. It reaches greater echo return loss enhancement and shows faster convergence speed when compared to the conventional approach. The experimental results approach the CCITT G.165 recommendation levels.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica na Área de Manutenção e Produção
Resumo:
Trabalho de Projecto para obtenção do grau de Mestre em Engenharia Civil.
Resumo:
Introdução – O presente estudo avaliou o efeito da cafeína no valor da razão contraste ruído (CNR) em imagens SWI. Objetivos – Avaliar o efeito da cafeína qualitativamente e quantificado pelo cálculo do valor CNR em imagens de magnitude e MIP para as estruturas: veia cerebral interna, seio sagital superior, tórcula e artéria cerebral média. Metodologia – A população do estudo incluiu 24 voluntários saudáveis que estiveram pelo menos 24h privados da ingestão de cafeína. Adquiriram-se imagens SWI antes e após a ingestão de 100ml de café. Os voluntários foram subdivididos em quatro grupos de seis indivíduos/grupo e avaliados separadamente após decorrido um intervalo de tempo diferente para cada grupo (15, 25, 30 ou 45min pós-cafeína). Utilizou-se um scanner Siemens Avanto 1,5 T com bobine standard de crânio e os parâmetros: T2* GRE 3D de alta resolução no plano axial, TR=49; TE=40; FA=15; FOV=187x230; matriz=221x320. O processamento de imagem foi efetuado no software OsiriX® e a análise estatística no GraphPadPrism®. Resultados e Discussão – As alterações de sinal e diferenças de contraste predominaram nas estruturas venosas e não foram significantes na substância branca, LCR e artéria cerebral média. Os valores CNR pré-cafeína diferiram significativamente do pós-cafeína nas imagens de magnitude e MIP na veia cerebral interna e nas imagens de magnitude do seio sagital superior e da tórcula (p<0,0001). Não se verificaram diferenças significativas entre os grupos avaliados nos diferentes tempos pós-cafeína. Conclusões – Especulamos que a cafeína possa vir a ser usada como agente de contraste nas imagens SWI barato, eficaz e de fácil administração.
Resumo:
Purpose - The study evaluates the pre- and post-training lesion localisation ability of a group of novice observers. Parallels are drawn with the performance of inexperienced radiographers taking part in preliminary clinical evaluation (PCE) and ‘red-dot’ systems, operating within radiography practice. Materials and methods - Thirty-four novice observers searched 92 images for simulated lesions. Pre-training and post-training evaluations were completed following the free-response the receiver operating characteristic (FROC) method. Training consisted of observer performance methodology, the characteristics of the simulated lesions and information on lesion frequency. Jackknife alternative FROC (JAFROC) and highest rating inferred ROC analyses were performed to evaluate performance difference on lesion-based and case-based decisions. The significance level of the test was set at 0.05 to control the probability of Type I error. Results - JAFROC analysis (F(3,33) = 26.34, p < 0.0001) and highest-rating inferred ROC analysis (F(3,33) = 10.65, p = 0.0026) revealed a statistically significant difference in lesion detection performance. The JAFROC figure-of-merit was 0.563 (95% CI 0.512,0.614) pre-training and 0.677 (95% CI 0.639,0.715) post-training. Highest rating inferred ROC figure-of-merit was 0.728 (95% CI 0.701,0.755) pre-training and 0.772 (95% CI 0.750,0.793) post-training. Conclusions - This study has demonstrated that novice observer performance can improve significantly. This study design may have relevance in the assessment of inexperienced radiographers taking part in PCE or commenting scheme for trauma.
Resumo:
Agência Financiadora: Fundação para a Ciência e a Tecnologia (FCT) - PEst-OE/FIS/UI0777/2013; CERN/FP/123580/2011; PTDC/FIS-NUC/0548/2012