935 resultados para Resolvent Convergence
Resumo:
Mestrado em Contabilidade
Resumo:
Com a expansão da Televisão Digital e a convergência entre os meios de difusão convencionais e a televisão sobre IP, o número de canais disponíveis tem aumentado de forma gradual colocando o espectador numa situação de difícil escolha quanto ao programa a visionar. Sobrecarregados com uma grande quantidade de programas e informação associada, muitos espectadores desistem sistematicamente de ver um programa e tendem a efectuar zapping entre diversos canais ou a assistir sempre aos mesmos programas ou canais. Diante deste problema de sobrecarga de informação, os sistemas de recomendação apresentam-se como uma solução. Nesta tese pretende estudar-se algumas das soluções existentes dos sistemas de recomendação de televisão e desenvolver uma aplicação que permita a recomendação de um conjunto de programas que representem potencial interesse ao espectador. São abordados os principais conceitos da área dos algoritmos de recomendação e apresentados alguns dos sistemas de recomendação de programas de televisão desenvolvidos até à data. Para realizar as recomendações foram desenvolvidos dois algoritmos baseados respectivamente em técnicas de filtragem colaborativa e de filtragem de conteúdo. Estes algoritmos permitem através do cálculo da similaridade entre itens ou utilizadores realizar a predição da classificação que um utilizador atribuiria a um determinado item (programa de televisão, filme, etc.). Desta forma é possível avaliar o nível de potencial interesse que o utilizador terá em relação ao respectivo item. Os conjuntos de dados que descrevem as características dos programas (título, género, actores, etc.) são armazenados de acordo com a norma TV-Anytime. Esta norma de descrição de conteúdo multimédia apresenta a vantagem de ser especificamente vocacionada para conteúdo audiovisual e está disponível livremente. O conjunto de recomendações obtidas é apresentado ao utilizador através da interacção com uma aplicação Web que permite a integração de todos os componentes do sistema. Para validação do trabalho foi considerado um dataset de teste designado de htrec2011-movielens-2k e cujo conteúdo corresponde a um conjunto de filmes classificados por diversos utilizadores num ambiente real. Este conjunto de filmes possui, para além da classificações atribuídas pelos utilizadores, um conjunto de dados que descrevem o género, directores, realizadores e país de origem. Para validação final do trabalho foram realizados diversos testes dos quais o mais relevante correspondeu à avaliação da distância entre predições e valores reais e cujo objectivo é classificar a capacidade dos algoritmos desenvolvidos preverem com precisão as classificações que os utilizadores atribuiriam aos itens analisados.
Resumo:
A indústria da construção, nomeadamente no sector da edificação, baseia-se essencialmente em métodos de construção tradicional. Esta indústria é caracterizada pelo consumo excessivo de matérias-primas, de recursos energéticos não renováveis e pela elevada produção de resíduos. Esta realidade é de todo incompatível com os desígnios do desenvolvimento sustentável, nos quais se procura a conveniência harmoniosa entre as dimensões ambiental, social e económica. O desafio da sustentabilidade, colocado à actividade da construção, tem motivado abordagens distintas, não só por parte das várias especialidades da engenharia, como também da arquitectura. É nesta perspectiva, que o presente modelo pretende ser um contributo para uma abordagem inovadora, introduzindo linhas de intervenção e de orientação, para apoiar e estimular o desenvolvimento de soluções sustentáveis em edifícios habitacionais, em qualquer fase do ciclo de evolução de um projecto e das várias especialidades do mesmo. Assim, no sentido de optimizar os recursos envolvidos no projecto são expostas estratégias de intervenção, com os seguintes objectivos: optimização do potencial do local, preservação da identidade regional e cultural, minimização do consumo de energia, utilização de materiais e produtos de baixo impacto ambiental, redução do consumo de água, redução da produção de emissões, resíduos e outros poluentes, adequada qualidade do ambiente interior e optimização das fases de operação e manutenção. A ferramenta apresentada surge como um instrumento facilitador para a equipa de projectistas, e que se esta adaptada para o desenvolvimento de projectos de edifícios de habitação, dada a génese dos métodos utilizados. As soluções de sustentabilidade apresentadas neste manual emanam dos sistemas de certificação LíderA, LEED, BREEAM e SBToolpt. O modelo encontra-se estruturado, no que às fases de projecto diz respeito, de acordo com os requisitos expressos na Portaria 701-H/2008 de 29 de Julho, tendo sido igualmente seguido o descrito para os respectivos intervenientes.
Resumo:
Finding the structure of a confined liquid crystal is a difficult task since both the density and order parameter profiles are nonuniform. Starting from a microscopic model and density-functional theory, one has to either (i) solve a nonlinear, integral Euler-Lagrange equation, or (ii) perform a direct multidimensional free energy minimization. The traditional implementations of both approaches are computationally expensive and plagued with convergence problems. Here, as an alternative, we introduce an unsupervised variant of the multilayer perceptron (MLP) artificial neural network for minimizing the free energy of a fluid of hard nonspherical particles confined between planar substrates of variable penetrability. We then test our algorithm by comparing its results for the structure (density-orientation profiles) and equilibrium free energy with those obtained by standard iterative solution of the Euler-Lagrange equations and with Monte Carlo simulation results. Very good agreement is found and the MLP method proves competitively fast, flexible, and refinable. Furthermore, it can be readily generalized to the richer experimental patterned-substrate geometries that are now experimentally realizable but very problematic to conventional theoretical treatments.
Resumo:
Conferência: 39th Annual Conference of the IEEE Industrial-Electronics-Society (IECON) - NOV 10-14, 2013
Resumo:
Conferência - 16th International Symposium on Wireless Personal Multimedia Communications (WPMC)- Jun 24-27, 2013
Resumo:
Aims - To compare reading performance in children with and without visual function anomalies and identify the influence of abnormal visual function and other variables in reading ability. Methods - A cross-sectional study was carried in 110 children of school age (6-11 years) with Abnormal Visual Function (AVF) and 562 children with Normal Visual Function (NVF). An orthoptic assessment (visual acuity, ocular alignment, near point of convergence and accommodation, stereopsis and vergences) and autorefraction was carried out. Oral reading was analyzed (list of 34 words). Number of errors, accuracy (percentage of success) and reading speed (words per minute - wpm) were used as reading indicators. Sociodemographic information from parents (n=670) and teachers (n=34) was obtained. Results - Children with AVF had a higher number of errors (AVF=3.00 errors; NVF=1.00 errors; p<0.001), a lower accuracy (AVF=91.18%; NVF=97.06%; p<0.001) and reading speed (AVF=24.71 wpm; NVF=27.39 wpm; p=0.007). Reading speed in the 3rd school grade was not statistically different between the two groups (AVF=31.41 wpm; NVF=32.54 wpm; p=0.113). Children with uncorrected hyperopia (p=0.003) and astigmatism (p=0.019) had worst reading performance. Children in 2nd, 3rd, or 4th grades presented a lower risk of having reading impairment when compared with the 1st grade. Conclusion - Children with AVF had reading impairment in the first school grade. It seems that reading abilities have a wide variation and this disparity lessens in older children. The slow reading characteristics of the children with AVF are similar to dyslexic children, which suggest the need for an eye evaluation before classifying the children as dyslexic.
Resumo:
No passado, as acções publicitárias eram rotuladas como above the line e below the line, referindo-se à dicotomia de pontos de contacto com os públicos-alvo via Meios de Comunicação Social ou via Ponto de Venda. A esta dicotomia de meios e instrumentos, os anos 90 vieram trazer um terceiro ponto de contacto, crescentemente omnipresente e hegemónico, a world wide web ou rede, a que se acedia via computador. As acções de marketing e comunicação passaram então a rotular-se como online e offline, passando, não já a referir-se aos pontos de contacto, mas aos canais pelos quais circulavam as mensagens e acções das marcas. Desde o início deste século, o poder do digital veio crescendo, em software e hardware, em terminais e tecnologias, assistindo-se a uma transferência de esforços de comunicação, da esfera real para a esfera do digital. O deslumbramento pelo digital conquistou mesmo algumas marcas de dimensão mundial que hoje apostam integralmente o seu orçamento nesta forma de marketing, nas suas múltiplas facetas. Contudo, e porque se tem tornado óbvio que os públicos distribuem os seus favores por múltiplos touch points, para maximizar o impacto, assiste-se agora a um fenómeno único, potenciado por novas tecnologias que surgem todos os dias: em estratégias que se podem denominar de all-line, verifica-se a fusão entre dois mundos, mundo real e mundo digital, em múltiplas actividades de marketing que fazem convergir estas duas realidades em plataformas que vão do computador ao tablet, do smartphone à vending machine interactiva, do facebook ao Google maps, da imprensa tradicional ao pinterest. É esta convergência mundo real - mundo digital que abre agora novas oportunidades à comunicação publicitária, potenciando os ingredientes das marcas de sucesso no futuro: sensações (estímulo dos sentidos), intimidade e mistério, num cocktail suportado por uma nova criatividade.
Resumo:
Multi-objective particle swarm optimization (MOPSO) is a search algorithm based on social behavior. Most of the existing multi-objective particle swarm optimization schemes are based on Pareto optimality and aim to obtain a representative non-dominated Pareto front for a given problem. Several approaches have been proposed to study the convergence and performance of the algorithm, particularly by accessing the final results. In the present paper, a different approach is proposed, by using Shannon entropy to analyzethe MOPSO dynamics along the algorithm execution. The results indicate that Shannon entropy can be used as an indicator of diversity and convergence for MOPSO problems.
Resumo:
In the early 21st Century, with the phenomenon of digital convergence, the consecration of Web 2.0, the decrease of the cost of cameras and video recorders, the proliferation of mobile phones, laptops and wireless technologies, we witness the arising of a new wave of media, of an informal, personal and at times “minority” nature, facilitating social networks, a culture of fans, of sharing and remix. As digital networks become fully and deeply intricate in our experience, the idea of “participation” arises as one of the most complex and controversial themes of the contemporary critical discourse, namely in what concerns contemporary art and new media art. However, the idea of “participation” as a practice or postulate traverses the 20th century art playing an essential role in its auto-critic, in questioning the concept of author, and in the dilution of the frontiers between art, “life” and society, emphasizing the process, the everyday and a community sense. As such, questioning the new media art in light of a “participatory art” (Frieling, 2008) invokes a double gaze simultaneously attentive to the emerging figures of a “participatory aesthetics” in digital arts and of the genealogy in which it is included. In fact, relating the new media art with the complex and paradoxical phenomenon of “participation” allows us to, on the one hand, avoid “digital formalism” (Lovink, 2008) and analyse the relations between digital art and contemporary social movements; on the other hand, this angle of analysis contributes to reinforce the dialogue and the links between digital art and contemporary art, questioning the alleged frontiers that separate them.
Resumo:
This paper presents a modified Particle Swarm Optimization (PSO) methodology to solve the problem of energy resources management with high penetration of distributed generation and Electric Vehicles (EVs) with gridable capability (V2G). The objective of the day-ahead scheduling problem in this work is to minimize operation costs, namely energy costs, regarding he management of these resources in the smart grid context. The modifications applied to the PSO aimed to improve its adequacy to solve the mentioned problem. The proposed Application Specific Modified Particle Swarm Optimization (ASMPSO) includes an intelligent mechanism to adjust velocity limits during the search process, as well as self-parameterization of PSO parameters making it more user-independent. It presents better robustness and convergence characteristics compared with the tested PSO variants as well as better constraint handling. This enables its use for addressing real world large-scale problems in much shorter times than the deterministic methods, providing system operators with adequate decision support and achieving efficient resource scheduling, even when a significant number of alternative scenarios should be considered. The paper includes two realistic case studies with different penetration of gridable vehicles (1000 and 2000). The proposed methodology is about 2600 times faster than Mixed-Integer Non-Linear Programming (MINLP) reference technique, reducing the time required from 25 h to 36 s for the scenario with 2000 vehicles, with about one percent of difference in the objective function cost value.
Resumo:
Adhesively-bonded joints are extensively used in several fields of engineering. Cohesive Zone Models (CZM) have been used for the strength prediction of adhesive joints, as an add-in to Finite Element (FE) analyses that allows simulation of damage growth, by consideration of energetic principles. A useful feature of CZM is that different shapes can be developed for the cohesive laws, depending on the nature of the material or interface to be simulated, allowing an accurate strength prediction. This work studies the influence of the CZM shape (triangular, exponential or trapezoidal) used to model a thin adhesive layer in single-lap adhesive joints, for an estimation of its influence on the strength prediction under different material conditions. By performing this study, guidelines are provided on the possibility to use a CZM shape that may not be the most suited for a particular adhesive, but that may be more straightforward to use/implement and have less convergence problems (e.g. triangular shaped CZM), thus attaining the solution faster. The overall results showed that joints bonded with ductile adhesives are highly influenced by the CZM shape, and that the trapezoidal shape fits best the experimental data. Moreover, the smaller is the overlap length (LO), the greater is the influence of the CZM shape. On the other hand, the influence of the CZM shape can be neglected when using brittle adhesives, without compromising too much the accuracy of the strength predictions.
Reabilitação de edifícios com novas tendências NZEB: caso de estudo: edifício de serviços em Setúbal
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Civil
Resumo:
Doutoramento em Motricidade Humana na especialidade de Dança
Resumo:
We consider reliable communications in Body Area Networks (BAN), where a set of nodes placed on human body are connected using wireless links. In order to keep the Specific Absorption Rate (SAR) as low as possible for health safety reasons, these networks operate in low transmit power regime, which however, is known to be error prone. It has been observed that the fluctuations of the Received Signal Strength (RSS) at the nodes of a BAN on a moving person show certain regularities and that the magnitude of these fluctuations are significant (5 - 20 dB). In this paper, we present BANMAC, a MAC protocol that monitors and predicts the channel fluctuations and schedules transmissions opportunistically when the RSS is likely to be higher. The MAC protocol is capable of providing differentiated service and resolves co-channel interference in the event of multiple co-located BANs in a vicinity. We report the design and implementation details of BANMAC integrated with the IEEE 802.15.4 protocol stack. We present experimental data which show that the packet loss rate (PLR) of BANMAC is significantly lower as compared to that of the IEEE 802.15.4 MAC. For comparable PLR, the power consumption of BANMAC is also significantly lower than that of the IEEE 802.15.4. For co-located networks, the convergence time to find a conflict-free channel allocation was approximately 1 s for the centralized coordination mechanism and was approximately 4 s for the distributed coordination mechanism.