875 resultados para Superlinear and Semi–Superlinear Convergence


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis analiza la integración del sector de las telecomunicaciones con los de TI y medios que conforman el actual hiper-sector de las TIC, para abordar una propuesta de valor que se plantea a dos niveles. Se expone de un lado, la iniciativa WIMS 2.0, que aborda los aspectos tecnológicos y estratégicos de la convergencia telco e Internet para, posteriormente, definir un nuevo modelo de negocio, que adaptado al nuevo sector integrado y siguiendo paradigmas inéditos como los que plantea la innovación abierta, permita generar nuevos flujos de ingresos en áreas no habituales para los operadores de telecomunicaciones. A lo largo del capítulo 2, el lector encontrará la contextualización del entorno de las comunicaciones de banda ancha desde tres vertientes: los aspectos tecnológicos, los económicos y el mercado actual, todo ello enfocado en una dimensión nacional, europea y mundial. Se establece de esta manera las bases para el desarrollo de los siguientes capítulos al demostrar cómo la penetración de la banda ancha ha potenciado el desarrollo de un nuevo sistema de valor en el sector integrado de las TIC, alrededor del cual surgen propuestas de modelos de negocio originales que se catalogan en una taxonomía propia. En el tercer capítulo se detalla la propuesta de valor de la iniciativa WIMS 2.0, fundada y liderada por el autor de esta tesis. WIMS 2.0, como iniciativa abierta, se dirige a la comunidad como una propuesta de un nuevo ecosistema y como un modelo de referencia integrado sobre el que desplegar servicios convergentes. Adicionalmente, sobre el planteamiento teórico definido se aporta el enfoque práctico que supone el despliegue del modelo de referencia dentro de la arquitectura de un operador como Telefónica. El capítulo 4 muestra el modelo de negocio Innovación 2.0, basado en la innovación abierta con el objetivo de capturar nuevos flujos de ingresos incrementando el portfolio de servicios innovadores gracias a las ideas frescas y brillantes de start-ups. Innovación 2.0 lejos de quedarse en una mera propuesta teórica, muestra sus bondades en el éxito práctico en el mercado que ha validado las hipótesis planteadas. El último capítulo plantea las líneas futuras de investigación tanto en el ámbito de la iniciativa WIMS 2.0 como en el modelo de Innovación 2.0, algunas de las cuales se están comenzando a abordar. 3 Abstract This thesis examines the integration of telecommunications sector with IT and media that make up the current hyper-ICT sector, to address a value proposition that arises at two levels. On one side, WIMS 2.0 initiative, which addresses the technological and strategic aspects of the telco and Internet convergence to later define a new business model, adapted to the new integrated sector and following original paradigms such as those posed by open innovation, which generates new revenue streams in areas not typical for telecom operators. Throughout Chapter 2, the reader will find the contextualization of the broadband communications environment from three aspects: technological, economic and the current market all focused on a national, European and world scale. Thus it establishes the basis for the development of the following chapters by demonstrating how the penetration of broadband has led to the development of a new value system in the integrated sector of the ICT, around which arise proposals of originals business models, which are categorized in a own taxonomy. The third chapter outlines the value proposition of the WIMS 2.0 initiative, founded and led by the author of this thesis. WIMS 2.0, as open initiative, presents to the community a proposal for a new ecosystem and an integrated reference model on which to deploy converged services. Additionally, above the theoretical approach defined, WIMS 2.0 provides the practical approach is provided which is the deployment of the reference model into the architecture of an operator such as Telefónica. Chapter 4 shows the Innovation 2.0 business model, based on open innovation with the goal of capturing new revenue streams by increasing the portfolio of innovative services thanks to the fresh and brilliant ideas from start-ups. Innovation 2.0, far from being a mere theoretical proposition, shows its benefits in the successful deployment in the market, which has validated the hypotheses. The last chapter sets out the future research at both the WIMS 2.0 initiative and Innovation 2.0 model, some of which are beginning to be addressed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

García et al. present a class of column generation (CG) algorithms for nonlinear programs. Its main motivation from a theoretical viewpoint is that under some circumstances, finite convergence can be achieved, in much the same way as for the classic simplicial decomposition method; the main practical motivation is that within the class there are certain nonlinear column generation problems that can accelerate the convergence of a solution approach which generates a sequence of feasible points. This algorithm can, for example, accelerate simplicial decomposition schemes by making the subproblems nonlinear. This paper complements the theoretical study on the asymptotic and finite convergence of these methods given in [1] with an experimental study focused on their computational efficiency. Three types of numerical experiments are conducted. The first group of test problems has been designed to study the parameters involved in these methods. The second group has been designed to investigate the role and the computation of the prolongation of the generated columns to the relative boundary. The last one has been designed to carry out a more complete investigation of the difference in computational efficiency between linear and nonlinear column generation approaches. In order to carry out this investigation, we consider two types of test problems: the first one is the nonlinear, capacitated single-commodity network flow problem of which several large-scale instances with varied degrees of nonlinearity and total capacity are constructed and investigated, and the second one is a combined traffic assignment model

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The acquisition of the information system technologies using the services of an external supplier could be the the best options to reduce the implementation and maintenance cost of software solutions, and allows a company to improve the efficient use of its resources. The focus of this paper is to outline a methodology structure for the software acquisition management. The methodology proposed in this paper is the result of the study and the convergence of the weakness and strengths of some models (CMMI, SA-CMM, ISO/IEC TR 15504, COBIT, and ITIL) that include the software acquisition process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The growth of the Internet has increased the need for scalable congestion control mechanisms in high speed networks. In this context, we propose a rate-based explicit congestion control mechanism with which the sources are provided with the rate at which they can transmit. These rates are computed with a distributed max-min fair algorithm, SLBN. The novelty of SLBN is that it combines two interesting features not simultaneously present in existing proposals: scalability and fast convergence to the max-min fair rates, even under high session churn. SLBN is scalable because routers only maintain a constant amount of state information (only three integer variables per link) and only incur a constant amount of computation per protocol packet, independently of the number of sessions that cross the router. Additionally, SLBN does not require processing any data packet, and it converges independently of sessions' RTT. Finally, by design, the protocol is conservative when assigning rates, even in the presence of high churn, which helps preventing link overshoots in transient periods. We claim that, with all these features, our mechanism is a good candidate to be used in real deployments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Accuracy estimates and adaptive refinements is nowadays one of the main research topics in finite element computations [6,7,8, 9,11].Its extension to Boundary Elements has been tried as a means to better understand its capabilities as well as to impro ve its efficiency and its obvious advantages. The possibility of implementing adaptive techniques was shown [1,2] for h-conver gence and p-convergence respectively. Some posterior works [3,4 5,10] have shown the promising results that can be expected from those techniques. The main difficulty is associated to the reasonable establishment of “estimation” and “indication” factors related to the global and local errors in each refinement. Although some global measures have been used it is clear that the reduction in dimension intrinsic to boundary elements (3D→2D: 2D→1D) could allow a direct comparison among residuals using the graphic possibilities of modern computers and allowing a point-to-point comparison in place of the classical global approaches. Nevertheless an indicator generalizing the well known Peano’s one has been produced.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, a fuzzy logic controller (FLC) based variable structure control (VSC) is presented. The main objective is to obtain an improved performance of highly non-linear unstable systems. New functions for chattering reduction and error convergence without sacrificing invariant properties are proposed. The main feature of the proposed method is that the switching function is added as an additional fuzzy variable and will be introduced in the premise part of the fuzzy rules; together with the state variables. In this work, a tuning of the well known weighting parameters approach is proposed to optimize local and global approximation and modelling capability of the Takagi-Sugeno (T-S) fuzzy model to improve the choice of the performance index and minimize it. The main problem encountered is that the T-S identification method can not be applied when the membership functions are overlapped by pairs. This in turn restricts the application of the T-S method because this type of membership function has been widely used in control applications. The approach developed here can be considered as a generalized version of the T-S method. An inverted pendulum mounted on a cart is chosen to evaluate the robustness, effectiveness, accuracy and remarkable performance of the proposed estimation approach in comparison with the original T-S model. Simulation results indicate the potential, simplicity and generality of the estimation method and the robustness of the chattering reduction algorithm. In this paper, we prove that the proposed estimation algorithm converge the very fast, thereby making it very practical to use. The application of the proposed FLC-VSC shows that both alleviation of chattering and robust performance are achieved.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Within the technological framework of Information and Communication Technologies (ICT), consumers are currently requesting multimedia services with simplicity of use, reliability, security and service availability through mobile and fixed access. Network operators are proposing the Next Generation Networks (NGN) to address the challenges of providing both services and network convergence. Apart from these considerations, there is a need to provide social and healthcare assistance services in order to support the progressive aging in the elderly population. In order to achieve this objective, the Ambient Assisted Living (AAL) initiative proposes ICT systems and services to promote autonomy and an independent life among the elderly. This paper describes the design and implementation of a group of services, called “service enablers”, which helps AAL applications to be supported in NGN. The presented enablers are identified to support the teleconsulting applications requirements in an NGN environment, involving the implementation of a virtual waiting room, a virtual whiteboard, a multimedia multiconference and a vital-signs monitoring presence status. A use case is defined and implemented to evaluate the developed enablers' performance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Implantada no Brasil na década de 50, a TV a mídia de maior abrangência e poder ideológico entre seus públicos encara sua segunda grande transformação: ela deixa de ser analógica e passa a ser digital. Com isso, traz à tona novas possibilidades de recepção e a possível convergência de meios. Nesse contexto, o objetivo deste estudo foi analisar o processo de instalação do Sistema Brasileiro de Televisão Digital Terrestre (SBTVD-t) a partir do clipping on-line do Fórum Nacional pela Democratização da Comunicação (FNDC). A análise desse material teve como foco averiguar se o FNDC foi tendencioso ou não na veiculação de matérias voltadas aos aspectos técnicos da nova tecnologia, em detrimento de seu potencial social. Para tanto, optou-se por uma pesquisa de base quantitativa em que as informações e os dados coletados levaram à constatação de que o FNDC se mostra pouco eficaz como aparato crítico-apreciativo da grande mídia, além de não cumprir alguns de seus objetivos ao reproduzir discursos e ideologias de outros veículos. Da mesma forma, verificou-se ainda que o Governo Federal também fugiu aos objetivos listados nos decretos presidenciais que instituem e dispõem sobre a implantação do SBTVD.(AU)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Implantada no Brasil na década de 50, a TV a mídia de maior abrangência e poder ideológico entre seus públicos encara sua segunda grande transformação: ela deixa de ser analógica e passa a ser digital. Com isso, traz à tona novas possibilidades de recepção e a possível convergência de meios. Nesse contexto, o objetivo deste estudo foi analisar o processo de instalação do Sistema Brasileiro de Televisão Digital Terrestre (SBTVD-t) a partir do clipping on-line do Fórum Nacional pela Democratização da Comunicação (FNDC). A análise desse material teve como foco averiguar se o FNDC foi tendencioso ou não na veiculação de matérias voltadas aos aspectos técnicos da nova tecnologia, em detrimento de seu potencial social. Para tanto, optou-se por uma pesquisa de base quantitativa em que as informações e os dados coletados levaram à constatação de que o FNDC se mostra pouco eficaz como aparato crítico-apreciativo da grande mídia, além de não cumprir alguns de seus objetivos ao reproduzir discursos e ideologias de outros veículos. Da mesma forma, verificou-se ainda que o Governo Federal também fugiu aos objetivos listados nos decretos presidenciais que instituem e dispõem sobre a implantação do SBTVD.(AU)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

By using a simplified model of small open liquid-like clusters with surface effects, in the gas phase, it is shown how the statistical thermodynamics of small systems can be extended to include metastable supersaturated gaseous states not too far from the gas–liquid equilibrium transition point. To accomplish this, one has to distinguish between mathematical divergence and physical convergence of the open-system partition function.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Para dar suporte ao atual debate sobre as consequências climáticas da liberação antropogênica de CO2 na atmosfera, o refinamento do conhecimento sobre mudanças climáticas e oceanográficas no passado é necessário. A Circulação de Revolvimento Meridional do Atlântico (CRMA) tem papel fundamental na oceanografia e clima das áreas sob influência do Oceano Atlântico, controlando diretamente a estratificação e distribuição de massas d\'água, a quantidade de calor transportada pelo oceano e os ciclo e armazenamento de compostos químicos, como o CO2 em mar profundo. A formação e circulação da Água Intermediária Antártica (AIA), envolvida no transporte de calor e sal para o giro subtropical do Hemisfério Sul e nas teleconexões climáticas entre altas e baixas latitudes, é componente importante do ramo superior da CRMA. A reconstrução de propriedades de massas de água intermediárias é, portanto, importante para a compreensão dos sistemas de retroalimentação entre oceano-clima. No entanto, informações quanto a evolução da AIA continuam limitadas. Oscilações da CRMA e consequentes mudanças na distribuição de calor tem implicações importantes para o clima Sul Americano, influenciando a disponibilidade de umidade para o Sistema de Monções Sul Americano (SMSA), via temperatura da superfície marinha e posicionamento da Zona de Convergência Intertropical. Neste trabalho nós reconstruímos a assinatura isotópica da AIA durante os estágios isotópicos marinhos 2 e 3 (41-12 cal ka AP) usando isótopos de carbono e oxigênio de foraminíferos bentônicos (gêneros Cibicidoides e Uvigerina) de um testemunho de sedimentos marinhos datados por radiocarbono (1100 m de profundidade e a 20°S na costa do Brasil). Concluímos que propriedades físicas e químicas da AIA mudaram durante os estadiais Heinrich 3 e 4, provavelmente como consequência de enfraquecimento da CRMA durante estes períodos. Também reconstruímos as condições continentais do leste brasileiro entre o último máximo glacial e a deglaciação (23-12 cal ka AP) baseadas em razões Ti/Ca de nosso testemunho de sedimentos marinhos como indicadoras de aporte terrígeno do Rio Doce. A maior parte da chuva que cai na Bacia do Rio Doce está relacionada a atividade do SMAS. Nosso registro de Ti/Ca em conjunto com \'\'delta\' POT.18\'O de espeleotemas da Caverna Lapa Sem Fim, também no leste do Brasil, sugere diminuição marcante da chuva durante o interestadial Bølling-Allerød, provavelmente relacionada a enfraquecimento do SMAS. Ademais comparamos as razões de Ti/Ca com dados de saída da rodada SYNTRACE do modelo climático CCSM3 com forçantes transientes para a última deglaciação. Os registros geoquímicos e a saída do modelo mostram resultados consistentes entre si e sugerem que o leste da América do Sul passou pelo seu período mais seco de toda a última deglaciação durante o interestadial Bølling-Allerød, provavelmente relacionado ao enfraquecimento do SMAS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper we study the following p(x)-Laplacian problem: -div(a(x)&VERBAR;&DEL; u&VERBAR;(p(x)-2)&DEL; u)+b(x)&VERBAR; u&VERBAR;(p(x)-2)u = f(x, u), x ε &UOmega;, u = 0, on &PARTIAL; &UOmega;, where 1< p(1) &LE; p(x) &LE; p(2) < n, &UOmega; &SUB; R-n is a bounded domain and applying the mountain pass theorem we obtain the existence of solutions in W-0(1,p(x)) for the p(x)-Laplacian problems in the superlinear and sublinear cases. © 2004 Elsevier Inc. All rights reserved.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this letter, we propose a class of self-stabilizing learning algorithms for minor component analysis (MCA), which includes a few well-known MCA learning algorithms. Self-stabilizing means that the sign of the weight vector length change is independent of the presented input vector. For these algorithms, rigorous global convergence proof is given and the convergence rate is also discussed. By combining the positive properties of these algorithms, a new learning algorithm is proposed which can improve the performance. Simulations are employed to confirm our theoretical results.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fast Classification (FC) networks were inspired by a biologically plausible mechanism for short term memory where learning occurs instantaneously. Both weights and the topology for an FC network are mapped directly from the training samples by using a prescriptive training scheme. Only two presentations of the training data are required to train an FC network. Compared with iterative learning algorithms such as Back-propagation (which may require many hundreds of presentations of the training data), the training of FC networks is extremely fast and learning convergence is always guaranteed. Thus FC networks may be suitable for applications where real-time classification is needed. In this paper, the FC networks are applied for the real-time extraction of gene expressions for Chlamydia microarray data. Both the classification performance and learning time of the FC networks are compared with the Multi-Layer Proceptron (MLP) networks and support-vector-machines (SVM) in the same classification task. The FC networks are shown to have extremely fast learning time and comparable classification accuracy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Implantada no Brasil na década de 50, a TV a mídia de maior abrangência e poder ideológico entre seus públicos encara sua segunda grande transformação: ela deixa de ser analógica e passa a ser digital. Com isso, traz à tona novas possibilidades de recepção e a possível convergência de meios. Nesse contexto, o objetivo deste estudo foi analisar o processo de instalação do Sistema Brasileiro de Televisão Digital Terrestre (SBTVD-t) a partir do clipping on-line do Fórum Nacional pela Democratização da Comunicação (FNDC). A análise desse material teve como foco averiguar se o FNDC foi tendencioso ou não na veiculação de matérias voltadas aos aspectos técnicos da nova tecnologia, em detrimento de seu potencial social. Para tanto, optou-se por uma pesquisa de base quantitativa em que as informações e os dados coletados levaram à constatação de que o FNDC se mostra pouco eficaz como aparato crítico-apreciativo da grande mídia, além de não cumprir alguns de seus objetivos ao reproduzir discursos e ideologias de outros veículos. Da mesma forma, verificou-se ainda que o Governo Federal também fugiu aos objetivos listados nos decretos presidenciais que instituem e dispõem sobre a implantação do SBTVD.(AU)