1000 resultados para Métodos de estimação paramétricos e semi-paramétricos
Resumo:
O presente projeto visa um estudo morfológico de formas planctônicas iniciais de crustáceos decápodos da família Porcellanidae. Os representantes da família Porcellanidae são bons indicadores da diversidade e complexidade das estruturas litorais, quando em relações simbióticas. E possuem também grande importância na cadeia trófica, sendo a base alimentar de muitos peixes de interesse econômico. Seu desenvolvimento larval conta com um estágio pré-zoea, dois estágios zoea e um estágio glaucothoe. O estágio de pré-zoea tem curta duração, comumente de 5 minutos a 5 horas, sendo coberto por uma cutícula embrionária. Os estágios de zoea são facilmente reconhecidos pelos grandes espinhos rostral e posterior da carapaça. O estágio de glaucothoe apresenta todos os somitos e apêndices presentes no caranguejo adulto, com redução somente no número de pleópodos. Para o estudo foram utilizadas as amostras da coleção do NEBECC (Núcleo de Estudo de Biologia, Ecologia e Cultivo de Crustáceos) feitas para o projeto “Morfologia dos estágios iniciais do desenvolvimento de Crustáceos Decápodos Pleocyemata, do litoral norte paulista” aprovado pela FAPESP (proc. 04/15194-6). Estas amostras foram triadas em estereomicroscópio e, separadas as larvas por região (inshore e offshore) e estágios larvais. Os estágios de larvais foram desenhados e análisados com ênfase nos maxilipedes secundário e terciário e no télson. Os resultados foram analisados estatisticamente por métodos não-paramétricos, apresentando uma homogeneidade na distribuição dos estágios larvais tanto inshore quanto offshore
Resumo:
Os carrapatos são considerados um dos mais importantes grupos dentre os artrópodes, por serem vetores de agentes patogênicos, que podem atacar animais, bem como o próprio homem. Dentre as diversas espécies de carrapato destaca-se a do Rhipicephalus sanguineus, pertencente à família Ixodidae e com ampla distribuição em todos os continentes. Atualmente esta espécie é considerada uma praga urbana, de grande importância médico-veterinária, que parasita principalmente o cão doméstico. Os ovários de carrapatos são considerados órgãos vitais para o sucesso biológico deste grupo de animais. Neste sentido, desenvolver pesquisas para se conhecer a ação de produtos naturais com reconhecida ação repelente ou acaricida, sobre o sistema reprodutor feminino de carrapatos, traria importantes informações para um melhor entendimento dos efeitos da ação destes produtos nos ovócitos desses ectoparasitas, contribuindo principalmente para o desenvolvimento de métodos de controle alternativos menos tóxicos para os organismos não-alvo e menos poluentes para o meio ambiente. Dessa forma, o presente estudo analisou as alterações morfofisiológicas causadas por diferentes concentrações do óleo de andiroba no ovário de fêmeas semiingurgitadas de carrapatos R. sanguineus
Resumo:
Introduction: The HELLP syndrome is a severe complication of pregnant women with preeclampsia (PE), characterized by association of hemolysis, changes in liver enzymes and thrombocytopenia. Hemolysis, defined by the presence of microangiopathic hemolytic anemia, is one of the characteristics in this syndrome. However, as hemolysis occurs in a short time there is some difficulty in its laboratory diagnosis. Therefore, the search for a more sensitive and specific method for hemolysis determination may help in the early diagnosis of the HELLP syndrome. Objectives: a) To determine the plasma concentration of haptoglobin in normotensive pregnant women and in pregnant women with PE, classified into mild PE, severe PE and HELLP/partial HELLP syndrome; b) To compare the efficacy of haptoglobin plasma concentration and serum total bilirubin as criteria for hemolysis diagnosis in HELLP/partial HELLP syndrome. Methods: We conducted a cross-sectional analytical and comparative study involving 66 pregnant women diagnosed with PE, being 25 cases with mild PE, 28 with severe PE, and 13 with HELLP/partial HELLP syndrome. Twenty-one normotensive pregnant women were included for comparison of haptoglobin plasma concentration between the groups and to determine the normal values for pregnant women. The variables studied were: maternal age, gestational age, systolic and diastolic blood pressure, proteinuria, hematocrit and hemoglobin values, platelet count, serum total bilirubin, lactate dehydrogenase (LDH), glutamic oxaloacetic transaminase (AST) and glutamic-pyruvic transaminase (ALT), urea, creatinine and uric acid, and also plasma concentrations of haptoglobin. The results were analyzed by nonparametric tests, with a significance level of 5%. Results: The values of urea, uric acid, AST, ALT and LDH were significantly higher, while the number of platelets was lower in pregnant women with HELLP/partial HELLP syndrome compared to pregnant women with mild PE and ...
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Considering the importance of the esthetic and the adequate register of vertical dimension (VD) to the oral rehabilitation, this study had as aims the analysis and comparison of two methods to get VD (Pleasure and Willis), functional space (FE), acquisition and correlation of facial and dental measurements. To do this, rest (RVD) and occlusal vertical dimension (OVD) and FE were achieved from the 30 students of the Federal University of Goias College of Dentistry. Following that, dental measurements of height and of the superior central incisors (SCI) and canine distance were registered. A facial analysis was performed to get the intercomissura, interalar, interpupilar, intercantal distance, besides register parameters as coincidence of dental and facial line, type of smile, face and SCI forms, and mastication type. The collected data were tabulated, compared by medias and standard deviations, and submitted to non-parametrical statistical analysis of Kruskal-Wallis and .Mann-Whitney with 5% of probability. The results doesn’t indicated statistical significant difference between FE of the two techniques. The measures of facial analysis are comparable with literature published data’s, but can’t be used as a parameter to the selection of intercanine distance. In 56.7% of the cases, there were coincidences of face and SCI forms, which could be a viable parameter in the selection of acrylic resin artificial tooth.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
A diferencia de otros parámetros, el efecto de la existencia de huecos en la aparición y desarrollo de los procesos de fisuración en los paños de fábrica no ha sido considerado por las distintas normativas existentes en la actualidad. En nuestros días se emplea una variada gama de tipologías de elementos de cerramiento para realizar las particiones en las obras de edificación, cada una de ellas con características mecánicas diferentes y distinta metodología de ejecución, siendo de aplicación la misma normativa relativa al cálculo y control de las deformaciones. Tal y como expresamos en el Capitulo 1, en el que se analiza el Estado del Conocimiento, los códigos actuales determinan de forma analítica la flecha probable que se alcanza en los elementos portantes estructurales bajo diferentes condiciones de servicio. Las distintas propuestas que existen respecto para la limitación de la flecha activa, una vez realizado el cálculo de las deformaciones, bien por el método de Branson ó mediante los métodos de integración de curvaturas, no contemplan como parámetro a considerar en la limitación de la flecha activa la existencia y tipología de huecos en un paño de fábrica soportado por la estructura. Sin embargo se intuye y podríamos afirmar que una discontinuidad en cualquier elemento sometido a esfuerzos tiene influencia en el estado tensional del mismo. Si consideramos que, de forma general, los procesos de fisuración se producen al superarse la resistencia a tracción de material constitutivo de la fábrica soportada, es claro que la variación tensional inducida por la existencia de huecos ha de tener cierta influencia en la aparición y desarrollo de los procesos de fisuración en los elementos de partición o de cerramiento de las obras de edificación. En los Capítulos 2 y 3 tras justificar la necesidad de realizar una investigación encaminada a confirmar la relación entre la existencia de huecos en un paño de fábrica y el desarrollo de procesos de fisuración en el mismo, se establece este aspecto como principal Objetivo y se expone la Metodología para su análisis. Hemos definido y justificado en el Capítulo 4 el modelo de cálculo que hemos utilizado para determinar las deformaciones y los procesos de fisuración que se producen en los casos a analizar, en los que se han considerado como variables: los valores de la luz del modelo, el estado de fisuración de los elementos portantes, los efectos de la fluencia y el porcentaje de transmisión de cargas desde el forjado superior al paño de fábrica en estudio. Además se adoptan dos valores de la resistencia a tracción de las fábricas, 0.75MPa y 1.00MPa. La capacidad de representar la fisuración, así como la robustez y fiabilidad ha condicionado y justificado la selección del programa de elementos finitos que se ha utilizado para realizar los cálculos. Aprovechando la posibilidad de reproducir de forma ajustada las características introducidas para cada parámetro, hemos planteado y realizado un análisis paramétricos que considera 360 cálculos iterativos, de cuya exposición es objeto el Capítulo 5, para obtener una serie representativa de resultados sobre los que se realizará el análisis posterior. En el Capítulo 6, de análisis de los resultados, hemos estudiado los valores de deformaciones y estados de fisuración obtenidos para los casos analizados. Hemos determinado la influencia que tiene la presencia de huecos en la aparición de los procesos de fisuración y en las deformaciones que se producen en las diferentes configuraciones estructurales. Las conclusiones que hemos obtenido tras analizar los resultados, incluidas en el Capítulo 7, no dejan lugar a dudas: la presencia, la posición y la tipología de los huecos en los elementos de fábricas soportadas sobre estructuras deformables son factores determinantes respecto de la fisuración y pueden tener influencia en las deformaciones que constituyen la flecha activa del elemento, lo que obliga a plantear una serie de recomendaciones frente al proyecto y frente a la reglamentación técnica. La investigación desarrollada para esta Tesis Doctoral y la metodología aplicada para su desarrollo abre nuevas líneas de estudio, que se esbozan en el Capítulo 8, para el análisis de otros aspectos que no han sido cubiertos por esta investigación a fin de mejorar las limitaciones que deberían establecerse para los Estados Límite de Servicio de Deformaciones correspondientes a las estructuras de edificación. SUMMARY. Unlike other parameters, the effect of the existence of voids in the arising and development of cracking processes in the masonry walls has not been considered by current Codes. Nowadays, a huge variety of enclosure elements types is used to execute partitions in buildings, each one with different mechanical characteristics and different execution methodology, being applied the same rules concerning deflection calculation and control. As indicated in Chapter 1, which analyzes the State of Art, current codes analytically determine the deflection likely to be achieved in structural supporting elements under different service conditions. The different proposals that exist related to live deflection limitation, once performed deformations calculation, either by Branson´s method or considering curvatures integration methods, do not consider in deflection limitation the existence and typology of voids in a masonry wall structured supported. But is sensed and it can be affirmed that a discontinuity in any element under stress influences the stress state of it. If we consider that, in general, cracking processes occur when masonry material tensile strength is exceeded, it is clear that tension variation induced by the existence of voids must have some influence on the emergence and development of cracking processes in enclosure elements of building works. In Chapters 2 and 3, after justifying the need for an investigation to confirm the relationship between the existence of voids in a masonry wall and the development of cracking process in it, is set as the main objective and it is shown the analysis Methodology. We have defined and justified in Chapter 4 the calculation model used to determine the deformation and cracking processes that occur in the cases analyzed, in which were considered as variables: model span values, bearing elements cracking state, creep effects and load transmission percentage from the upper floor to the studied masonry wall. In addition, two masonry tensile strength values 0.75MPa and 1.00MPa have been considered. The cracking consideration ability, robustness and reliability has determined and justified the selection of the finite element program that was used for the calculations. Taking advantage of the ability of accurately consider the characteristics introduced for each parameter, we have performed a parametric analyses that considers 360 iterative calculations, whose results are included in Chapter 5, in order to obtain a representative results set that will be analyzed later. In Chapter 6, results analysis, we studied the obtained values of deformation and cracking configurations for the cases analyzed. We determined the influence of the voids presence in the occurrence of cracking processes and deformations in different structural configurations. The conclusions we have obtained after analyzing the results, included in Chapter 7, leave no doubt: the presence, position and type of holes in masonry elements supported on deformable structures are determinative of cracking and can influence deformations which are the element live deflection, making necessary to raise a number of recommendations related to project and technical regulation. The research undertaken for this Doctoral Thesis and the applied methodology for its development opens up new lines of study, outlined in Chapter 8, for the analysis of other aspects that are not covered by this research, in order to improve the limitations that should be established for Deflections Serviceability Limit States related to building structures.
Resumo:
Machine learning techniques are used for extracting valuable knowledge from data. Nowa¬days, these techniques are becoming even more important due to the evolution in data ac¬quisition and storage, which is leading to data with different characteristics that must be exploited. Therefore, advances in data collection must be accompanied with advances in machine learning techniques to solve new challenges that might arise, on both academic and real applications. There are several machine learning techniques depending on both data characteristics and purpose. Unsupervised classification or clustering is one of the most known techniques when data lack of supervision (unlabeled data) and the aim is to discover data groups (clusters) according to their similarity. On the other hand, supervised classification needs data with supervision (labeled data) and its aim is to make predictions about labels of new data. The presence of data labels is a very important characteristic that guides not only the learning task but also other related tasks such as validation. When only some of the available data are labeled whereas the others remain unlabeled (partially labeled data), neither clustering nor supervised classification can be used. This scenario, which is becoming common nowadays because of labeling process ignorance or cost, is tackled with semi-supervised learning techniques. This thesis focuses on the branch of semi-supervised learning closest to clustering, i.e., to discover clusters using available labels as support to guide and improve the clustering process. Another important data characteristic, different from the presence of data labels, is the relevance or not of data features. Data are characterized by features, but it is possible that not all of them are relevant, or equally relevant, for the learning process. A recent clustering tendency, related to data relevance and called subspace clustering, claims that different clusters might be described by different feature subsets. This differs from traditional solutions to data relevance problem, where a single feature subset (usually the complete set of original features) is found and used to perform the clustering process. The proximity of this work to clustering leads to the first goal of this thesis. As commented above, clustering validation is a difficult task due to the absence of data labels. Although there are many indices that can be used to assess the quality of clustering solutions, these validations depend on clustering algorithms and data characteristics. Hence, in the first goal three known clustering algorithms are used to cluster data with outliers and noise, to critically study how some of the most known validation indices behave. The main goal of this work is however to combine semi-supervised clustering with subspace clustering to obtain clustering solutions that can be correctly validated by using either known indices or expert opinions. Two different algorithms are proposed from different points of view to discover clusters characterized by different subspaces. For the first algorithm, available data labels are used for searching for subspaces firstly, before searching for clusters. This algorithm assigns each instance to only one cluster (hard clustering) and is based on mapping known labels to subspaces using supervised classification techniques. Subspaces are then used to find clusters using traditional clustering techniques. The second algorithm uses available data labels to search for subspaces and clusters at the same time in an iterative process. This algorithm assigns each instance to each cluster based on a membership probability (soft clustering) and is based on integrating known labels and the search for subspaces into a model-based clustering approach. The different proposals are tested using different real and synthetic databases, and comparisons to other methods are also included when appropriate. Finally, as an example of real and current application, different machine learning tech¬niques, including one of the proposals of this work (the most sophisticated one) are applied to a task of one of the most challenging biological problems nowadays, the human brain model¬ing. Specifically, expert neuroscientists do not agree with a neuron classification for the brain cortex, which makes impossible not only any modeling attempt but also the day-to-day work without a common way to name neurons. Therefore, machine learning techniques may help to get an accepted solution to this problem, which can be an important milestone for future research in neuroscience. Resumen Las técnicas de aprendizaje automático se usan para extraer información valiosa de datos. Hoy en día, la importancia de estas técnicas está siendo incluso mayor, debido a que la evolución en la adquisición y almacenamiento de datos está llevando a datos con diferentes características que deben ser explotadas. Por lo tanto, los avances en la recolección de datos deben ir ligados a avances en las técnicas de aprendizaje automático para resolver nuevos retos que pueden aparecer, tanto en aplicaciones académicas como reales. Existen varias técnicas de aprendizaje automático dependiendo de las características de los datos y del propósito. La clasificación no supervisada o clustering es una de las técnicas más conocidas cuando los datos carecen de supervisión (datos sin etiqueta), siendo el objetivo descubrir nuevos grupos (agrupaciones) dependiendo de la similitud de los datos. Por otra parte, la clasificación supervisada necesita datos con supervisión (datos etiquetados) y su objetivo es realizar predicciones sobre las etiquetas de nuevos datos. La presencia de las etiquetas es una característica muy importante que guía no solo el aprendizaje sino también otras tareas relacionadas como la validación. Cuando solo algunos de los datos disponibles están etiquetados, mientras que el resto permanece sin etiqueta (datos parcialmente etiquetados), ni el clustering ni la clasificación supervisada se pueden utilizar. Este escenario, que está llegando a ser común hoy en día debido a la ignorancia o el coste del proceso de etiquetado, es abordado utilizando técnicas de aprendizaje semi-supervisadas. Esta tesis trata la rama del aprendizaje semi-supervisado más cercana al clustering, es decir, descubrir agrupaciones utilizando las etiquetas disponibles como apoyo para guiar y mejorar el proceso de clustering. Otra característica importante de los datos, distinta de la presencia de etiquetas, es la relevancia o no de los atributos de los datos. Los datos se caracterizan por atributos, pero es posible que no todos ellos sean relevantes, o igualmente relevantes, para el proceso de aprendizaje. Una tendencia reciente en clustering, relacionada con la relevancia de los datos y llamada clustering en subespacios, afirma que agrupaciones diferentes pueden estar descritas por subconjuntos de atributos diferentes. Esto difiere de las soluciones tradicionales para el problema de la relevancia de los datos, en las que se busca un único subconjunto de atributos (normalmente el conjunto original de atributos) y se utiliza para realizar el proceso de clustering. La cercanía de este trabajo con el clustering lleva al primer objetivo de la tesis. Como se ha comentado previamente, la validación en clustering es una tarea difícil debido a la ausencia de etiquetas. Aunque existen muchos índices que pueden usarse para evaluar la calidad de las soluciones de clustering, estas validaciones dependen de los algoritmos de clustering utilizados y de las características de los datos. Por lo tanto, en el primer objetivo tres conocidos algoritmos se usan para agrupar datos con valores atípicos y ruido para estudiar de forma crítica cómo se comportan algunos de los índices de validación más conocidos. El objetivo principal de este trabajo sin embargo es combinar clustering semi-supervisado con clustering en subespacios para obtener soluciones de clustering que puedan ser validadas de forma correcta utilizando índices conocidos u opiniones expertas. Se proponen dos algoritmos desde dos puntos de vista diferentes para descubrir agrupaciones caracterizadas por diferentes subespacios. Para el primer algoritmo, las etiquetas disponibles se usan para bus¬car en primer lugar los subespacios antes de buscar las agrupaciones. Este algoritmo asigna cada instancia a un único cluster (hard clustering) y se basa en mapear las etiquetas cono-cidas a subespacios utilizando técnicas de clasificación supervisada. El segundo algoritmo utiliza las etiquetas disponibles para buscar de forma simultánea los subespacios y las agru¬paciones en un proceso iterativo. Este algoritmo asigna cada instancia a cada cluster con una probabilidad de pertenencia (soft clustering) y se basa en integrar las etiquetas conocidas y la búsqueda en subespacios dentro de clustering basado en modelos. Las propuestas son probadas utilizando diferentes bases de datos reales y sintéticas, incluyendo comparaciones con otros métodos cuando resulten apropiadas. Finalmente, a modo de ejemplo de una aplicación real y actual, se aplican diferentes técnicas de aprendizaje automático, incluyendo una de las propuestas de este trabajo (la más sofisticada) a una tarea de uno de los problemas biológicos más desafiantes hoy en día, el modelado del cerebro humano. Específicamente, expertos neurocientíficos no se ponen de acuerdo en una clasificación de neuronas para la corteza cerebral, lo que imposibilita no sólo cualquier intento de modelado sino también el trabajo del día a día al no tener una forma estándar de llamar a las neuronas. Por lo tanto, las técnicas de aprendizaje automático pueden ayudar a conseguir una solución aceptada para este problema, lo cual puede ser un importante hito para investigaciones futuras en neurociencia.
Resumo:
Pragmatism is the leading motivation of regularization. We can understand regularization as a modification of the maximum-likelihood estimator so that a reasonable answer could be given in an unstable or ill-posed situation. To mention some typical examples, this happens when fitting parametric or non-parametric models with more parameters than data or when estimating large covariance matrices. Regularization is usually used, in addition, to improve the bias-variance tradeoff of an estimation. Then, the definition of regularization is quite general, and, although the introduction of a penalty is probably the most popular type, it is just one out of multiple forms of regularization. In this dissertation, we focus on the applications of regularization for obtaining sparse or parsimonious representations, where only a subset of the inputs is used. A particular form of regularization, L1-regularization, plays a key role for reaching sparsity. Most of the contributions presented here revolve around L1-regularization, although other forms of regularization are explored (also pursuing sparsity in some sense). In addition to present a compact review of L1-regularization and its applications in statistical and machine learning, we devise methodology for regression, supervised classification and structure induction of graphical models. Within the regression paradigm, we focus on kernel smoothing learning, proposing techniques for kernel design that are suitable for high dimensional settings and sparse regression functions. We also present an application of regularized regression techniques for modeling the response of biological neurons. Supervised classification advances deal, on the one hand, with the application of regularization for obtaining a na¨ıve Bayes classifier and, on the other hand, with a novel algorithm for brain-computer interface design that uses group regularization in an efficient manner. Finally, we present a heuristic for inducing structures of Gaussian Bayesian networks using L1-regularization as a filter. El pragmatismo es la principal motivación de la regularización. Podemos entender la regularización como una modificación del estimador de máxima verosimilitud, de tal manera que se pueda dar una respuesta cuando la configuración del problema es inestable. A modo de ejemplo, podemos mencionar el ajuste de modelos paramétricos o no paramétricos cuando hay más parámetros que casos en el conjunto de datos, o la estimación de grandes matrices de covarianzas. Se suele recurrir a la regularización, además, para mejorar el compromiso sesgo-varianza en una estimación. Por tanto, la definición de regularización es muy general y, aunque la introducción de una función de penalización es probablemente el método más popular, éste es sólo uno de entre varias posibilidades. En esta tesis se ha trabajado en aplicaciones de regularización para obtener representaciones dispersas, donde sólo se usa un subconjunto de las entradas. En particular, la regularización L1 juega un papel clave en la búsqueda de dicha dispersión. La mayor parte de las contribuciones presentadas en la tesis giran alrededor de la regularización L1, aunque también se exploran otras formas de regularización (que igualmente persiguen un modelo disperso). Además de presentar una revisión de la regularización L1 y sus aplicaciones en estadística y aprendizaje de máquina, se ha desarrollado metodología para regresión, clasificación supervisada y aprendizaje de estructura en modelos gráficos. Dentro de la regresión, se ha trabajado principalmente en métodos de regresión local, proponiendo técnicas de diseño del kernel que sean adecuadas a configuraciones de alta dimensionalidad y funciones de regresión dispersas. También se presenta una aplicación de las técnicas de regresión regularizada para modelar la respuesta de neuronas reales. Los avances en clasificación supervisada tratan, por una parte, con el uso de regularización para obtener un clasificador naive Bayes y, por otra parte, con el desarrollo de un algoritmo que usa regularización por grupos de una manera eficiente y que se ha aplicado al diseño de interfaces cerebromáquina. Finalmente, se presenta una heurística para inducir la estructura de redes Bayesianas Gaussianas usando regularización L1 a modo de filtro.
Resumo:
El objetivo principal de la ventilación es garantizar las condiciones de explotación en servicio y de seguridad en caso de incendio en el interior del túnel. En la mayoría de los túneles de una cierta importancia esto se consigue mediante la disposición de instalaciones mecánicas de ventilación que permiten forzar el desplazamiento del aire de la forma deseada. Los principios de funcionamiento que pueden encontrarse en la práctica son muy diversos aunque pueden clasificarse según el comportamiento del aire en el interior del túnel (PIARC, Circular Francesa) o en función de si existen o no elementos de separación entre la zona reservada a la circulación de los vehículos y los conductos de ventilación (Recomendaciones suizas). Siguiendo este último principio de clasificación, los que no presentan losa intermedia son aquellos en los que se emplean aceleradores y/o pozos de ventilación para conseguir las condiciones adecuadas. En cuanto a los sistemas que presentan losa intermedia existen dos principalmente el transversal y el semitransversal. En los sistemas de tipo transversal, durante el funcionamiento en servicio, en un tramo determinado del túnel el aporte de aire fresco es el mismo que el de extracción de tal forma que, en condiciones de igualdad de presión entre sus extremos, no existe corriente longitudinal. En cuanto a la sección transversal, el conducto de aire viciado debe situarse en la parte superior ocupando la sección superior de la bóveda de tal forma que permita la extracción de humos en caso de incendio a través de exutorios. En cambio, el aporte de aire fresco se suele realizar mediante aberturas situadas al nivel de la calzada o en la parte superior (aunque es desaconsejable) alimentadas desde conductos que pueden ir situados bajo la calzada o compartiendo la sección superior, en cuyo caso se dispone un tabique de separación entre ambos. En los sistemas de tipo semitransversal, durante el funcionamiento en servicio, se pretende dar a cada zona del túnel la cantidad de aire fresco necesario para diluir los contaminantes que allí se producen. El aire fresco se introduce a lo largo de todo el túnel a través de una serie de aberturas que comunican un conducto auxiliar situado en un falso techo del túnel. El aire contaminado sale a través de las bocas. Para prevenir el caso de incendio este tipo de ventilación puede estar preparada para invertir el sentido del aire y pasar a una aspiración a lo largo del túnel o en zonas localizadas. En este caso se denomina semitransversal reversible. En el caso de túneles de gran longitud es habitual la subdivisión del túnel en zonas o cantones que son alimentados desde una misma estación de ventilación, para lo que es preciso dividir el conducto de distribución en dos o más partes, quedando una de las secciones destinada a la distribución de aire al interior del túnel y la otra como transición al siguiente cantón. En el caso de sistemas de ventilación de tipo semitransversal reversible cada uno de los conductos puede ser empleado tanto para el aporte de aire fresco (sobrepresión) como la extracción de humos en caso de incendio (subpresión). Si a esto se añade la disposición de sistemas de ventiladores redundantes que permitan el auxilio en caso de fallo de algún equipo, es necesaria la disposición de complejos sistemas de registros para conectar los ventiladores. El tabique de separación entre los conductos se ve por tanto sometido a diferencias de presiones según el modo de funcionamiento, por lo que son precisos distintos escenarios de hipótesis de carga.
Resumo:
ABSTRACT: The comparison of the different bids in the tender for a project, with the traditional contract system based on unit rates open to and re-measurement, requires analysis tools that are able to discriminate proposals having a similar overall economic impact, but that might show a very different behaviour during the execution of the works. RESUMEN: La estimación rápida de costes en fases iniciales del proyecto por métodos paramétricos y referencias estadísticas es un tema bien estudiado, divulgado y aplicado en el sector de la construcción. Sin embargo, existe poca literatura técnica sobre sistemas de predimensionado de tiempos, que permitan realizar rápidamente una planificación con un grado de aproximación razonable. Este texto reúne dos aspectos ya conocidos, pero hasta ahora independientes, y una aportación propia: -La estimación del plazo final por referencias estadísticas (BCIS, 2000) - La estimación del reparto del coste total a lo largo de la ejecución mediante curvas "S" (diversos autores) La estimación de la duración de la ejecución de las actividades en función de su coste. El conjunto de estas tres técnicas, aplicadas a un proyecto, permite obtener una planificación con el suficiente grado de detalle y fiabilidad para tomar decisiones en fases iniciales del proyecto.