1000 resultados para Modelos de medida


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El estándar LTE se ha posicionado como una de las claves para que los operadores de telecomunicación puedan abordar de manera eficiente en costes el crecimiento de la demanda de tráfico móvil que se prevé para los próximos años, al ser una tecnología más escalable en el núcleo de la red y más flexible en la interfaz radio que sus predecesoras. En este sentido, es necesario también que los reguladores garanticen un acceso al espectro radioeléctrico adecuado, equitativo y no discriminatorio, que permita un entorno estable para el despliegue de redes de comunicaciones móviles avanzadas. Además de la flexibilización del marco regulador del espectro radioeléctrico en Europa, que ha permitido el despliegue de nuevas tecnologías en las bandas de frecuencia históricas de GSM, se ha puesto a disposición espectro adicional para sistemas IMT en nuevas bandas de frecuencia, lo que ha planteando a su vez nuevos retos para la tecnología y la regulación. La fragmentación del espectro disponible para comunicaciones móviles ha impulsado el desarrollo de técnicas de agregación de portadoras en las nuevas versiones del estándar LTE, que permiten explotar mejor los recursos radio en su conjunto. No obstante, el espectro inferior a 1 GHz sigue siendo escaso, ya que el tráfico móvil aumenta y la banda de 900 MHz aún se utiliza para servicios GSM, lo que no ha conseguido sino agravar la disputa entre los servicios de radiodifusión terrestre y de comunicaciones móviles por la parte superior de la banda UHF. En concreto, la banda de 700 MHz se perfila como una de las próximas para aumentar el espectro disponible para los servicios en movilidad, si bien su liberación por parte de las actuales redes de Televisión Digital Terrestre presenta no pocas dificultades en los Estados miembros en los que ésta es la principal plataforma audiovisual de acceso gratuito, abriendo un debate sobre el modelo audiovisual a largo plazo en Europa. Por otro lado, las políticas públicas de promoción del acceso a la banda ancha rápida y ultrarrápida de la presente década han establecido objetivos ambiciosos para el año 2020, tanto en el ámbito europeo como en los diferentes Estados miembros. La universalización del acceso a redes de banda ancha de al menos 30 Mbps constituye uno de los principales retos. Las expectativas generadas por la tecnología LTE y la puesta a disposición de nuevas bandas de frecuencia hace posible que los servicios de acceso fijo inalámbrico adquieran especial relevancia ante los objetivos de política pública establecidos que, como ha sido reconocido en diversas ocasiones, no podrán lograrse sino con un compendio de diferente tecnologías. Para esta Tesis Doctoral se han desarrollado una serie modelos tecnoeconómicos con el objetivo de realizar un análisis prospectivo que evalúa tres casos de especial relevancia en el despliegue de redes LTE: en primer lugar, la valoración económica de la banda de 700 MHz; en segundo lugar, la evaluación de modelos de negocio y reducción de costes considerando tecnologías femtocelulares; y finalmente, la viabilidad de las redes LTE de acceso fijo inalámbrico para el cierre de la brecha digital en el acceso a la banda ancha de 30 Mbps. En relación con la aplicación del análisis tecnoeconómico para la valoración del espectro de 700 MHz, los resultados obtenidos ponen de manifiesto dos cuestiones fundamentales. En primer lugar, la necesidad de asignar a los operadores más espectro para satisfacer las previsiones de demanda de tráfico móvil a medio plazo. En segundo, existe una diferencia notable en los costes de despliegue de una red LTE cuando se dispone de espectro en frecuencias inferiores a 1 GHz y cuando no, pero esta diferencia de costes disminuye a medida que se añade nuevo espectro sub-1GHz. De esta manera, la atribución de la banda de 700 MHz a servicios de comunicaciones móviles supone una reducción relevante en los costes de despliegue si el operador no dispone de espectro en la banda de 800 MHz, pero no así si ya dispone de espectro en bandas bajas para el despliegue. En este sentido, puede concluirse que el precio que los operadores estarán dispuestos a pagar por el espectro de la banda de 700 MHz dependede si ya tienen disponible espectro en la banda de 800 MHz. Sin embargo, dado que la competencia por ese espectro será menor, los ingresos esperables en las licitaciones de esta nueva banda serán en general menores, a pesar de que para algunos operadores este espectro sería tan valioso como el de 800 MHz. En segundo lugar, en relación con el despliegue de femtoceldas pueden extraerse algunas conclusiones en términos de ahorro de costes de despliegue y también de cara a la viabilidad de los modelos de negocio que posibilitan. El ahorro que supone la introducción de femtoceldas en el despliegue de una red LTE frente al caso de un despliegue exclusivamente macrocelular se ha demostrado que es mayor cuanto menor es el ancho de banda disponible para la red macrocelular. En esta línea, para un operador convergente el despliegue de femtoceldas tiene sentido económico si el ancho de banda disponible es escaso (en torno a 2x10 MHz), que, en el caso de España, puede reflejar el caso de los operadores del segmento fijo que son nuevos entrantes en el móvil. Por otro lado, los modelos de acceso abierto son interesantes para operadores exclusivamente móviles, porque consiguen flexibilizar los costes sustituyendo estaciones base macrocelulares por el despliegue de femtoceldas, pero necesitan desplegarse en zonas con una densidad de población relativamente elevada para que éstas descarguen tráfico de varios usuarios de la red macrocelular simultáneamente. No obstante, las femtoceldas son beneficiosas en todo caso si es el usuario quien asume los costes de la femtocelda y el backhaul, lo que sólo parece probable si se integran en el modelo de negocio de comercialización de nuevos servicios. Por tanto, el despliegue de femtoceldas en buena parte de la casuística estudiada sólo tiene sentido si consiguen aumentar los ingresos por usuario comercializando servicios de valor añadido que necesiten calidad de servicio garantizada y exploten a la vez de esa forma su principal ventaja competitiva respecto a la tecnología WiFi. Finalmente, en relación con el papel de la tecnología LTE para la provisión de servicios de acceso fijo inalámbrico para la banda ancha de 30 Mbps, se ha desarrollado un modelo TD-LTE y mediante la metodología de análisis tecnoeconómico se ha realizado un estudio prospectivo para el caso de España. Los resultados obtenidos preciden una huella de cobertura de FTTH del 74% para 2020, y demuestran que una red TD-LTE en la banda de 3,5 GHz resulta viable para aumentar la cobertura de servicios de 30 Mbps en 14 puntos porcentuales. Junto con la consideración de la cobertura de otras redes, la cobertura de 30 Mbps de acuerdo a la viabilidad de los despliegues alcanzaría el 95% en España en el año 2020. Como resumen, los resultados obtenidos muestran en todos los casos la capacidad de la tecnología LTE para afrontar nuevos desafíos en relación con el aumento del tráfico móvil, especialmente crítico en las zonas más urbanas, y el cierre de la brecha digital en el acceso a la banda ancha rápida en las zonas más rurales. ABSTRACT The LTE standard has been pointed out as one of the keys for telecom operators to address the demand growth in mobile traffic foreseen for the next years in a cost-efficient way, since its core network is more scalable and its radio interface more flexible than those of its predecessor technologies. On the other hand, regulators need to guarantee an adequate, equitable and non-discriminatory access to radio spectrum, which enable a favorable environment for the deployment of advanced mobile communication networks. Despite the reform of the spectrum regulatory framework in Europe, which allowed for the deployment of new technologies in the historic GSM bands, additional spectrum has been allocated to IMT systems in new frequency bands, what in turn has set out new challenges for technology and regulation. The current fragmentation of available spectrum in very different frequency bands has boosted the development of carrier aggregation techniques in most recent releases of the LTE standard, which permit a better exploitation of radio resources as a whole. Nonetheless, spectrum below 1 GHz is still scarce for mobile networks, since mobile traffic increases at a more rapid pace than spectral efficiency and spectrum resources. The 900 MHz frequency band is still being used for GSM services, what has worsen the dispute between mobile communication services and terrestrial broadcasting services for the upper part of the UHF band. Concretely, the 700 MHz frequency band has been pointed out as one of the next bands to be allocated to mobile in order to increase available spectrum. However, its release by current Digital Terrestrial Television networks is challenging in Member States where it constitutes the main free access audiovisual platform, opening up a new debate around the audiovisual model in the long term in Europe. On the other hand, public policies of the present decade to promote fast and ultrafast broadband access has established very ambitious objectives for the year 2020, both at European and national levels. Universalization of 30 Mbps broadband access networks constitutes one of the main challenges. Expectations raised by LTE technology and the allocation of new frequency bands has lead fixed wireless access (FWA) services to acquire special relevance in light of public policy objectives, which will not be met but with a compendium of different technologies, as different involved stakeholders have acknowledged. This PhD Dissertation develops techno-economic models to carry out a prospective analysis for three cases of special relevance in LTE networks’ deployment: the spectrum pricing of the 700 MHz frequency band, an assessment of new business models and cost reduction considering femtocell technologies, and the feasibility of LTE fixed wireless access networks to close the 30 Mbps broadband access gap in rural areas. In the first place and regarding the application of techno-economic analysis for 700 MHz spectrum pricing, obtained results reveal two core issues. First of all, the need to allocate more spectrum for operators in order to fulfill mobile traffic demand in the mid-term. Secondly, there is a substantial difference in deployment costs for a LTE network when there is sub-1GHz spectrum available and when there is not, but this difference decreases as additional sub-1GHz spectrum is added. Thus, the allocation of 700 MHz band to mobile communication services would cause a relevant reduction in deployment costs if the operator does not count on spectrum in the 800 MHz, but not if it already has been assigned spectrum in low frequencies for the deployment. In this regard, the price operators will be willing to pay for 700 MHz spectrum will depend on them having already spectrum in the 800 MHz frequency band or not. However, since competition for the new spectrum will not be so strong, expected incomes from 700 MHz spectrum awards will be generally lower than those from the digital dividend, despite this spectrum being as valuable as 800 MHz spectrum for some operators. In the second place, regarding femtocell deployment, some conclusions can be drawn in terms of deployment cost savings and also with reference to the business model they enable. Savings provided by a joint macro-femto LTE network as compared to an exclusively macrocellular deployment increase as the available bandwidth for the macrocells decreases. Therefore, for a convergent operator the deployment of femtocells can only have economic sense if the available bandwidth is scarce (around 2x10 MHz), which might be the case of fix market operators which are new entrant in mobile market. Besides, open access models are interesting for exclusively mobile operators, since they make costs more flexible by substituting macrocell base stations by femtocells, but they need to be deployed relatively densely populated areas so that they can offload traffic from several macrocell users simultaneously. Nonetheless, femtocells are beneficial in all cases if the user assumes both femtocell and backhaul costs, which only seems probable if they are integrated in a business model commercializing new services. Therefore, in many of the cases analyzed femtocell deployment only makes sense if they increase revenues per user through new added value services which need from guaranteed quality of service, thus exploiting its main competitive advantage compared to WiFi. Finally, regarding the role of LTE technology in the provision of fixed wireless access services for 30 Mbps broadband, a TD-LTE model has been developed and a prospective study has been carried out through techno-economic methodology for the Spanish case. Obtained results foresee a FTTH coverage footprint of 74% households for 2020, and prove that a TD-LTE network in the 3.5 GHz band results feasible to increase 30 Mbps service coverage in additional 14 percentage points. To sum up, obtained results show LTE technology capability to address new challenges regarding both mobile traffic growth, particularly critical in urban zones, and the current digital divide in fast broadband access in most rural zones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El propósito de esta tesis es estudiar la aproximación a los fenómenos de transporte térmico en edificación acristalada a través de sus réplicas a escala. La tarea central de esta tesis es, por lo tanto, la comparación del comportamiento térmico de modelos a escala con el correspondiente comportamiento térmico del prototipo a escala real. Los datos principales de comparación entre modelo y prototipo serán las temperaturas. En el primer capítulo del Estado del Arte de esta tesis se hará un recorrido histórico por los usos de los modelos a escala desde la antigüedad hasta nuestro días. Dentro de éste, en el Estado de la Técnica, se expondrán los beneficios que tiene su empleo y las dificultades que conllevan. A continuación, en el Estado de la Investigación de los modelos a escala, se analizarán artículos científicos y tesis. Precisamente, nos centraremos en aquellos modelos a escala que son funcionales. Los modelos a escala funcionales son modelos a escala que replican, además, una o algunas de las funciones de sus prototipos. Los modelos a escala pueden estar distorsionados o no. Los modelos a escala distorsionados son aquellos con cambios intencionados en las dimensiones o en las características constructivas para la obtención de una respuesta específica por ejemplo, replicar el comportamiento térmico. Los modelos a escala sin distorsión, o no distorsionados, son aquellos que mantienen, en la medida de lo posible, las proporciones dimensionales y características constructivas de sus prototipos de referencia. Estos modelos a escala funcionales y no distorsionados son especialmente útiles para los arquitectos ya que permiten a la vez ser empleados como elementos funcionales de análisis y como elementos de toma de decisiones en el diseño constructivo. A pesar de su versatilidad, en general, se observará que se han utilizado muy poco estos modelos a escala funcionales sin distorsión para el estudio del comportamiento térmico de la edificación. Posteriormente, se expondrán las teorías para el análisis de los datos térmicos recogidos de los modelos a escala y su aplicabilidad a los correspondientes prototipos a escala real. Se explicarán los experimentos llevados a cabo, tanto en laboratorio como a intemperie. Se han realizado experimentos con modelos sencillos cúbicos a diferentes escalas y sometidos a las mismas condiciones ambientales. De estos modelos sencillos hemos dado el salto a un modelo reducido de una edificación acristalada relativamente sencilla. Los experimentos consisten en ensayos simultáneos a intemperie del prototipo a escala real y su modelo reducido del Taller de Prototipos de la Escuela Técnica Superior de Arquitectura de Madrid (ETSAM). Para el análisis de los datos experimentales hemos aplicado las teorías conocidas, tanto comparaciones directas como el empleo del análisis dimensional. Finalmente, las simulaciones nos permiten comparaciones flexibles con los datos experimentales, por ese motivo, hemos utilizado tanto programas comerciales como un algoritmo de simulación desarrollado ad hoc para esta investigación. Finalmente, exponemos la discusión y las conclusiones de esta investigación. Abstract The purpose of this thesis is to study the approximation to phenomena of heat transfer in glazed buildings through their scale replicas. The central task of this thesis is, therefore, the comparison of the thermal performance of scale models without distortion with the corresponding thermal performance of their full-scale prototypes. Indoor air temperatures of the scale model and the corresponding prototype are the data to be compared. In the first chapter on the State of the Art, it will be shown a broad vision, consisting of a historic review of uses of scale models, from antiquity to our days. In the section State of the Technique, the benefits and difficulties associated with their implementation are presented. Additionally, in the section State of the Research, current scientific papers and theses on scale models are reviewed. Specifically, we focus on functional scale models. Functional scale models are scale models that replicate, additionally, one or some of the functions of their corresponding prototypes. Scale models can be distorted or not. Scale models with distortion are considered scale models with intentional changes, on one hand, in dimensions scaled unevenly and, on the other hand, in constructive characteristics or materials, in order to get a specific performance for instance, a specific thermal performance. Consequently, scale models without distortion, or undistorted scale models scaled evenly, are those replicating, to the extent possible, without distortion, the dimensional proportions and constructive configurations of their prototypes of reference. These undistorted and functional scale models are especially useful for architects because they can be used, simultaneously, as functional elements of analysis and as decision-making elements during the design. Although they are versatile, in general, it is remarkable that these types of models are used very little for the study of the thermal performance of buildings. Subsequently, the theories related to the analysis of the experimental thermal data collected from the scale models and their applicability to the corresponding full-scale prototypes, will be explained. Thereafter, the experiments in laboratory and at outdoor conditions are detailed. Firstly, experiments carried out with simple cube models at different scales are explained. The prototype larger in size and the corresponding undistorted scale model have been subjected to same environmental conditions in every experimental test. Secondly, a step forward is taken carrying out some simultaneous experimental tests of an undistorted scale model, replica of a relatively simple lightweight and glazed building construction. This experiment consists of monitoring the undistorted scale model of the prototype workshop located in the School of Architecture (ETSAM) of the Technical University of Madrid (UPM). For the analysis of experimental data, known related theories and resources are applied, such as, direct comparisons, statistical analyses, Dimensional Analysis and last, but not least important, simulations. Simulations allow us, specifically, flexible comparisons with experimental data. Here, apart the use of the simulation software EnergyPlus, a simulation algorithm is developed ad hoc for this research. Finally, the discussion and conclusions of this research are exposed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la presente tesis se propone un modelo de gestión de redes que incorpora en su definición la gestión y difusión masiva de la información sobre redes no propietarias como Internet. Este modelo viene a solucionar uno de los problemas más comunes para cualquier aplicación, tanto de gestión como de usuario, proporcionando un mecanismo sencillo, intuitivo y normalizado para transferir grandes volúmenes de información, con independencia de su localización o los protocolos de acceso. Algunas de las características más notables del modelo se pueden sintetizar en las siguientes ideas. La creación de herramientas siguiendo el modelo permite que los desarrolladores de aplicaciones puedan centrarse en la lógica de la aplicación, en lugar de tener que resolver, generalmente a medida, el problema de la transferencia de grandes volúmenes de información. El modelo se ha concebido para ser compatible con los estándares existentes, tomando como base el marco de trabajo definido por ISO/IEC para sistemas OSI. Para que la difusión de la información se realice de forma escalable y con el menor impacto posible sobre la red de comunicaciones se ha propuesto un método de difusión fundamentando en técnicas colaborativas y de multicast. Las principales áreas de aplicaciones del modelo se encuentran en: los sistemas de gestión como las copias de seguridad en red, sistemas para la continuidad en el negocio y alta disponibilidad o los sistemas de mantenimiento de redes de computadoras; aplicaciones de usuario como las aplicaciones eBusiness, sistemas de compartición de archivos o sistemas multimedia; y, en general, cualquier tipo de aplicación que conlleve la transferencia de importantes volúmenes de información a través de redes de área amplia como Internet. Los principales resultados de la investigación son: un modelo de gestión de redes, un mecanismo de difusión de la información concretado en un protocolo de transporte y otro de usuario y una librería que implementa los protocolos propuestos. Para validar la propuesta se ha construido un escenario de pruebas real y se ha implementado el prototipo de un sistema de recuperación integral de nodos basado en el modelo y utilizando las librerías creadas. Las pruebas de escalabilidad, carga y tiempos de transferencia realizados sobre el prototipo han permitido verificar la validez e idoneidad de la propuesta comprobando que su aplicación es escalable respecto del tamaño del sistema gestionado, sencillo de implantar y compatible con los sistemas existentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los métodos de máxima verosimilitud (MMV) ofrecen un marco alternativo a la estadística frecuentista convencional, alejándose del uso del p-valor para el rechazo de una única hipótesis nula y optando por el uso de las verosimilitudes para evaluar el grado de apoyo en los datos a un conjunto de hipótesis alternativas (o modelos) de interés para el investigador. Estos métodos han sido ampliamente aplicados en ecología en el marco de los modelos de vecindad. Dichos modelos usan una aproximación espacialmente explícita para describir procesos demográficos de plantas o procesos ecosistémicos en función de los atributos de los individuos vecinos. Se trata por tanto de modelos fenomenológicos cuya principal utilidad radica en funcionar como herramientas de síntesis de los múltiples mecanismos por los que las especies pueden interactuar e influenciar su entorno, proporcionando una medida del efecto per cápita de individuos de distintas características (ej. tamaño, especie, rasgos fisiológicos) sobre los procesos de interés. La gran ventaja de aplicar los MMV en el marco de los modelos de vecindad es que permite ajustar y comparar múltiples modelos que usen distintos atributos de los vecinos y/o formas funcionales para seleccionar aquel con mayor soporte empírico. De esta manera, cada modelo funcionará como un “experimento virtual” para responder preguntas relacionadas con la magnitud y extensión espacial de los efectos de distintas especies coexistentes, y extraer conclusiones sobre posibles implicaciones para el funcionamiento de comunidades y ecosistemas. Este trabajo sintetiza las técnicas de implementación de los MMV y los modelos de vecindad en ecología terrestre, resumiendo su uso hasta la fecha y destacando nuevas líneas de aplicación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los modelos ecológicos se han convertido en una pieza clave de esta ciencia. La generación de conocimiento se consigue en buena medida mediante procesos analíticos más o menos complejos aplicados sobre conjuntos de datos diversos. Pero buena parte del conocimiento necesario para diseñar e implementar esos modelos no está accesible a la comunidad científica. Proponemos la creación de herramientas informáticas para documentar, almacenar y ejecutar modelos ecológicos y flujos de trabajo. Estas herramientas (repositorios de modelos) están siendo desarrolladas por otras disciplinas como la biología molecular o las ciencias de la Tierra. Presentamos un repositorio de modelos (ModeleR) desarrollado en el contexto del Observatorio de seguimiento del cambio global de Sierra Nevada (Granada-Almería). Creemos que los repositorios de modelos fomentarán la cooperación entre científicos, mejorando la creación de conocimiento relevante que podría ser transferido a los tomadores de decisiones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é saber se o direito indigenista, como denominarei o direito estatal que diz respeito aos povos indígenas, reconhece a legitimidade do direito indígena, como denominarei o direito produzido pelos povos indígenas, nas experiências colombiana, boliviana e brasileira. A escolha da Bolívia se justifica pelo fato de as Constituições recentes deste país e do Equador serem consideradas um novo marco do constitucionalismo pluralista ao refundarem suas ordens buscando superar a ausência indígena constituinte. Já a Colômbia se destaca entre os países que, sob a influência recente do Convênio 169, incorporaram expressamente o pluralismo jurídico em suas Constituições. A jurisprudência produzida pela Corte Constitucional do país a respeito do direito indígena é considerada exemplar e inspiradora dos desenvolvimentos mais recentes na Bolívia. O trabalho está voltado para dois aspectos do tema: a autonomia jurisdicional, ou a capacidade para julgar conflitos conforme as normas e procedimentos próprios, e os mecanismos de controle de tais decisões. A metodologia do trabalho abrange revisão bibliográfica, seleção e análise documental de decisões judiciais e textos legais. Argumento que a acomodação de autonomias políticas e ordens jurídicas de diferentes culturas depende da criação de meta-instituições e metarregras que solucionem conflitos e promovam a coordenação entre os direitos, permitindo que os grupos se relacionem de maneira equitativa, controlem a dinâmica de suas identidades culturais e se sintam parte de uma mesma comunidade política. A prática das instituições brasileiras, no entanto, está muito mais voltada a aplicar o direito estatal aos índios do que a exercer controle sobre o direito indígena, o que indica que o paradigma da assimilação prevalece sobre eventuais concepções multiculturais de Estado e sociedade, ainda que o direito legislado apresente regras que reconhecem o pluralismo jurídico. Em outras palavras, as instituições estatais enxergam os indígenas como pessoas que percorrem o caminho da incapacidade jurídica à capacidade plena à medida em que se familiarizam com a cultura dominante, e não como pessoas que podem transitar entre diferentes ordens jurídicas. Por outro lado, a experiência recente de países latino-americanos que se abriram ao pluralismo jurídico mostra um caminho difícil e repleto de questões em aberto. As que mais se destacam são a possibilidade de violações de direitos humanos por autoridades indígenas e a tensão entre centralização política e autonomia política. Em relação ao primeiro caso, o aspecto crucial é saber quem deve julgar as violações e sob quais critérios, além de evitar decisões culturalmente enviesadas. Já o segundo caso depende da superação de traços autoritários relacionados ao governo central e da predominância das estruturas estatais já consolidadas, tanto no nível central quanto no nível local, sobre as instituições mantidas pelos povos indígenas. Ainda há um descompasso entre o discurso constitucional de igualdade entre as ordens jurídicas e a prática de subordinação das ordens indígenas às instâncias estatais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A fragilidade brasileira quanto à competitividade turística é um fato observável nos dados da Organização Mundial do Turismo. O Brasil caiu em 2011, da 45ª para a 52ª posição, apesar de liderar no atributo recursos naturais e estar colocado na 23° em recursos culturais. Assim, grandes interesses e esforços têm sido direcionados para o estudo da competitividade dos produtos e destinos turísticos. O destino turístico é caracterizado por um conjunto complexo e articulado de fatores tangíveis e intangíveis, apresentando alta complexidade, dados de elevada dimensionalidade, não linearidade e comportamento dinâmico, tornando-se difícil a modelagem desses processos por meio de abordagens baseadas em técnicas estatísticas clássicas. Esta tese investigou modelos de equações estruturais e seus algoritmos, aplicados nesta área, analisando o ciclo completo de análise de dados, em um processo confirmatório no desenvolvimento e avaliação de um modelo holístico da satisfação do turista; na validação da estrutura do modelo de medida e do modelo estrutural, por meio de testes de invariância de múltiplos grupos; na análise comparativa dos métodos de estimação MLE, GLS e ULS para a modelagem da satisfação e na realização de segmentação de mercado no setor de destino turístico utilizando mapas auto-organizáveis de Kohonen e sua validação com modelagem de equações estruturais. Aplicações foram feitas em análises de dados no setor de turismo, principal indústria de serviços do Estado do Rio Grande do Norte, tendo sido, teoricamente desenvolvidos e testados empiricamente, modelos de equações estruturais em padrões comportamentais de destino turístico. Os resultados do estudo empírico se basearam em pesquisas com a técnica de amostragem aleatória sistemática, efetuadas em Natal-RN, entre Janeiro e Março de 2013 e forneceram evidências sustentáveis de que o modelo teórico proposto é satisfatório, com elevada capacidade explicativa e preditiva, sendo a satisfação o antecedente mais importante da lealdade no destino. Além disso, a satisfação é mediadora entre a geração da motivação da viagem e a lealdade do destino e que os turistas buscam primeiro à satisfação com a qualidade dos serviços de turismo e, posteriormente, com os aspectos que influenciam a lealdade. Contribuições acadêmicas e gerenciais são mostradas e sugestões de estudo são dadas para trabalhos futuros.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A practical approach to estimate rock thermal conductivities is to use rock models based just on the observed or expected rock mineral content. In this study, we evaluate the performances of the Krischer and Esdorn (KE), Hashin and Shtrikman (HS), classic Maxwell (CM), Maxwell-Wiener (MW), and geometric mean (GM) models in reproducing the measures of thermal conductivity of crystalline rocks.We used 1,105 samples of igneous and metamorphic rocks collected in outcroppings of the Borborema Province, Northeastern Brazil. Both thermal conductivity and petrographic modal analysis (percent volumes of quartz, K-feldspar, plagioclase, and sum of mafic minerals) were done. We divided the rocks into two groups: (a) igneous and ortho-derived (or meta-igneous) rocks and (b) metasedimentary rocks. The group of igneous and ortho-derived rocks (939 samples) covers most the lithologies de_ned in the Streckeisen diagram, with higher concentrations in the fields of granite, granodiorite, and tonalite. In the group of metasedimentary rocks (166 samples), it were sampled representative lithologies, usually of low to medium metamorphic grade. We treat the problem of reproducing the measured values of rock conductivity as an inverse problem where, besides the conductivity measurements, the volume fractions of the constituent minerals are known and the effective conductivities of the constituent minerals and model parameters are unknown. The key idea was to identify the model (and its associated estimates of effective mineral conductivities and parameters) that better reproduces the measures of rock conductivity. We evaluate the model performances by the quantity  that is equal to the percentage of number of rock samples which estimated conductivities honor the measured conductivities within the tolerance of 15%. In general, for all models, the performances were quite inferior for the metasedimentary rocks (34% <  < 65%) as compared with the igneous and ortho-derived rocks (51% <  < 70%). For igneous and ortho-derived rocks, all model performances were very similar ( = 70%), except the GM-model that presented a poor performance (51% <  < 65%); the KE and HS-models ( = 70%) were slightly superior than the CM and MW-models ( = 67%). The quartz content is the dominant factor in explaining the rock conductivity for igneous and ortho-derived rocks; in particular, using the MW-model the solution is in practice vi UFRN/CCET– Dissertação de mestrado the series association of the quartz content. On the other hand, for metasedimentary rocks, model performances were different and the performance of the KEmodel ( = 65%) was quite superior than the HS ( = 53%), CM (34% <  < 42%), MW ( = 40%), and GM (35% <  < 42%). The estimated effective mineral conductivities are stable for perturbations both in the rock conductivity measures and in the quartz volume fraction. The fact that the metasedimentary rocks are richer in platy-minerals explains partially the poor model performances, because both the high thermal anisotropy of biotite (one of the most common platy-mineral) and the difficulty in obtaining polished surfaces for measurement coupling when platyminerals are present. Independently of the rock type, both very low and very high values of rock conductivities are hardly explained by rock models based just on rock mineral content.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neospora caninum es un parásito intracelular apicomplejo causante de la neosporosis, una enfermedad considerada como una de las principales causas de aborto en el ganado bovino. Esta parasitosis origina cuantiosas pérdidas económicas a nivel mundial, presentando una amplia distribución y una elevada prevalencia en el ganado bovino en la mayoría de países donde se ha estudiado. Actualmente, la inmunoprofilaxis se considera como la medida más importante para el control de la enfermedad, aunque, desafortunadamente, no existe una vacuna eficaz disponible. La única vacuna comercializada hasta el momento (Neoguard) ha sido retirada del mercado hace años debido a la baja eficacia mostrada. Por tanto, el esfuerzo de muchos grupos de investigación se centra hoy en día en el desarrollo de nuevas vacunas y fármacos eficaces y seguros frente a la neosporosis bovina. Con este fin, los modelos animales, además de ser de gran utilidad para estudiar la relación parásito-hospedador, la respuesta inmunitaria o la patogenia, son herramientas esenciales para realizar una evaluación adecuada de la eficacia y seguridad de vacunas y fármacos. Sin embargo, no existe un modelo normalizado, ya que aquellos descritos en la literatura se han llevado a cabo bajo condiciones experimentales muy variables. Estas diferencias incluyen, entre otras, la raza o estirpe de los animales empleados, el aislado de N. caninum, la manipulación del parásito para la inoculación, la vía de administración y la dosis utilizada en el ensayo. Además, en el caso de los modelos gestantes, el momento de la gestación en el cual se infecta a los animales supone una importante variable adicional. Por lo tanto, es necesario el desarrollo de modelos animales consensuados entre los diferentes laboratorios de investigación que permitan comparar y validar los resultados obtenidos en cada uno de ellos...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A utilização de adesivos hoje em dia encontra-se de tal forma disseminada que é transversal a diversos setores do mercado, como a indústria aeroespacial, aeronáutica, automóvel e do desporto. De facto, o uso de ligações adesivas em estruturas mecânicas tem vindo a crescer, na medida em que estes têm substituído os métodos de ligação convencionais, tais como brasagem, rebitagem, ligações aparafusadas e soldadura. No geral, as ligações adesivas apresentam diversas vantagens, desde a diminuição do peso, redução da concentração de tensões, facilidade de fabrico, bom comportamento a solicitações cíclicas e capacidade de unir materiais dissimilares. O crescente interesse da indústria nas ligações adesivas tem por base o aumento da confiabilidade nos métodos de previsão de resistência de estruturas adesivas. Neste contexto surgem os Modelos de Dano Coesivo, que permitem simular o crescimento do dano em estruturas, após introdução das leis coesivas previamente estimadas nos modelos numéricos. Uma das fases mais importantes neste método de previsão é a estimativa das leis coesivas em tração e corte, pelo que se torna de grande relevância a existência e validação de métodos precisos para a obtenção destas leis. Este trabalho visa a validação de leis coesivas em tração e corte, estimadas pela aplicação do método direto, na previsão da resistência de juntas com geometria de solicitação mista. Neste âmbito, ensaiaram-se JSS e JSD com diferentes comprimentos de sobreposição e com adesivos de diferente ductilidade. Foram considerados os adesivos Araldite® AV138, de elevada resistência e baixa ductilidade, o Araldite® 2015, de moderada ductilidade e resistência intermédia, e o SikaForce® 7752, de baixa resistência e elevada ductilidade. As leis coesivas em modo puro serviram de base para a criação de leis simplificadas triangulares, trapezoidais e linearesexponenciais, que foram testadas para cada um dos adesivos. A validação das mesmas consumou-se por comparação das previsões numéricas com os resultados experimentais. Procedeu-se também a uma análise de tensões de arrancamento e de corte no adesivo, de modo a compreender a influência das tensões na resistência das juntas. A utilização do método direto permitiu obter previsões de resistência bastante precisas, indicando as formas de leis coesivas mais adequadas para cada conjunto adesivo/geometria de junta. Para além disso, para as condições geométricas e materiais consideradas, este estudo permitiu concluir que não se cometem erros significativos na escolha de uma lei menos adequada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo fue relacionar la impulsividad con rasgos de personalidad, estudiando evidencia de validez convergente-discriminante para la Bateria Fatorial de Personalidade (BFP) y para la Escala de Avaliação da Impulsividade (EsAvI). Participaron 178 de la policía militar del estado de Minas Gerais, Brasil. En los resultados se recurrió al análisis de regresión stepwise, por el cual fueron identificados modelos predictores constituidos por facetas de los cinco factores de la personalidad, destacándose los factores ‘Inestabilidad Emocional’ y ‘Responsabilidad y Extraversión’ como los más relacionados a la Impulsividad. También se observó que el factor ‘Falta de Concentración y de Persistencia’ de la EsAvI fue el que reveló modelos con mayor variancia explicada por un conjunto de facetas de la BFP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesis presenta una investigación educativa centrada en la elaboración y validación de un sistema de evaluación de la satisfacción y de la calidad percibida por parte de los usuarios externos del servicio educativo, alumnos y padres, en el nivel de educación secundaria, útil como instrumento de mejora. En una primera parte, de delimitación conceptual del trabajo, se ha realizado una revisión de los principales modelos teóricos y propuestas metodológicas y técnicas de evaluación que han caracterizado la aproximación al estudio de la calidad de la educación en los últimos años. A comienzos del siglo XXI, la influencia de los modelos de Calidad Total en el ámbito educativo no universitario tuvo un apoyo institucional que fue clave, en tanto que se abogaba por una visión global de la educación como servicio, que abarcaba no solamente los aspectos didácticos, sino también los procesos de gestión -económica, de personal o de las instalaciones- y los resultados. En la última década, posiblemente debido al desarrollo y el gran peso mediático de las evaluaciones externas, de las que las pruebas PISA de la OCDE son el máximo representante, el interés de las políticas educativas se ha derivado hacia los resultados académicos, especialmente en las áreas que son evaluadas por este programa, lo que puede ir en detrimento de los procesos y de otros productos de la educación. En este trabajo se argumenta en defensa del valor que los enfoques de gestión de calidad y de calidad de servicio añaden al trabajo de los profesionales de la educación y se defiende que los modelos EFQM y Servqual, en los que se inspira el sistema de autoevaluación institucional diseñado, complementan de manera necesaria la información que se necesita en los centros para la mejora de los procesos y de los resultados. Puesto que la educación tiene importantes aspectos diferenciales respecto a otros servicios y ámbitos de actividad, en esta investigación se aporta un enfoque teórico, metodológico y técnico adaptado específicamente para la evaluación del servicio educativo en el nivel de educación secundaria...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This text offers some contributions to the debate on the changes proposed to the National Curricular Directives to reform secondary education in Brazil. In the first part, the political and economic scene is evaluated as the context which generated the last stage of reforms in the educational field in the 90s. It questions the option for a model of structural reform (in the Brazilian case more restricted to the Program for Reform of Professional Education - PROEP) and of the curriculum, whose themes find their justification in the contemporary economic, social cultural and political context. It discusses the use of a model that bases itself on experiences developed in other countries and takes the international orientation of the multilateral organizations as its theoretical methodological reference, leaving out the peculiarities and injunctions of the Brazilian political administrative system. Such a policy measure can increase the tension and distance normally existing between government programs and the possibility of their real implementation in the school network. In the second part, it discusses the Resolution of the National Education Council, the Congress on Basic Education, no.3, of 16.698 that instituted the National Curricular Directives for secondary education, as well as the Legal Bases - Part I - of the National Curricular Parameters for secondary education. The analysis of official discourse takes Bardin's (1977, p. 209) proposals as its methodological reference for the models of structural analysis, seeking to make the implicit values and the connotations of the legal texts explicit

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work outlines the historic development of the concept and main theories of energy transfer, as well as the principal experiments carried out to confirm or refute the proposed theories. Energy transfer in coordination compounds is also discussed with a focus on rare earth systems.