940 resultados para Distancias totales recorridas
Resumo:
Tanto el tema de esta investigación, como sus objetivos, fundamentos, materiales seleccionados y parte experimental para alcanzarlos, han sido promovidos por la situación y el estado de las construcciones de hormigón armado que se comenzaron a realizar en España a partir del año 1975, con hormigones y morteros de cemento que contenían cenizas volantes hasta un 20 %, en principio, y hasta un 35 %, más tarde, de su dosificación de cemento Portland (CP), los cuales y en contra de lo esperado, han demandado y continúan demandando, muy a pesar de sus aparentes bondades de todo tipo que se les atribuían, una necesidad de mejora de sus prestaciones, especialmente, debido a un nivel inesperadamente bajo de la durabilidad de algunas obras construidas con los mismos. Todo era debido, en definitiva, a que las adiciones puzolánicas, naturales y artificiales, tales como las cenizas volantes, referidas antes, se vienen utilizando reglamentariamente para la fabricación de cementos y/o de sus productos derivados, hormigones, morteros y pastas, en la mayor parte de los países industrializados, desde hace ya más de tres décadas aproximadamente, en las mismas condiciones e idénticos usos constructivos que los hormigones y morteros de CP puro, viniendo además, dictada dicha utilización de estos materiales residuales, hoy sub-productos industriales, por cuestiones medioambientales y/o económicas, principalmente, motivo por el cual esta Tesis Doctoral ha pretendido responder también, adecuadamente y de manera esquemática (en forma de diagrama de flujo), a los criterios que deben de tenerse en cuenta a la hora de su selección y caracterización normalizada y reglamentada de estas adiciones minerales activas, sobre todo, antes de su dosificación y uso en forma del denominado cemento Portland con puzolana, o con ceniza volante, o con esquistos calcinados o con puzolanas calcinadas o con humo de sílice, cemento Portland mixto, cemento puzolánico o cemento compuesto, para que dichos problemas no se le produzcan al hormigón armado ni en masa. De aquí el enfoque tan particular y especial de esta investigación, al haberla circunscrito únicamente a las puzolanas naturales y artificiales, por considerarlas todas ellas, independientemente de por su origen, como materiales constituidos por pequeñas fracciones cristalinas distribuidas aleatoriamente en una matriz mayoritariamente vítrea y/o amorfa, la cual es la que le confiere su reactividad con el hidróxido de calcio en forma de cal apagada o de portlandita procedente de la hidratación del CP. A su vez, dichas fracciones vítreas y/o amorfas están constituidas, en su mayor parte, por sílice reactiva, SiO2r-, alúmina reactiva, Al2O3r-, y óxido de hierro reactivo, Fe2O3r-, recibiendo además, en conjunto, el nombre específico de "factores hidráulicos" de la puzolana, los cuales, por lo común, difieren cuantitativamente de sus contenidos totales, determinados por fusión alcalina mediante procedimientos normalizados. De los tres óxidos reactivos mencionados y desde el punto de vista técnico, los más importantes por su mayor presencia en casi todas las puzolanas naturales y artificiales y, también, transcendencia en la durabilidad química que les pueden llegar a conferir al hormigón armado y en masa, mortero o pasta de cemento que las contenga, son la SiO2r- y la Al2O3r-. El primero de los dos, la SiO2r-, reacciona nada más que con la portlandita (y el Ca(OH)2) para formar geles C-S-H, más tarde transformados en tobermoritas o en jennitas, semejantes a los que originan la alita y la belita del CP en su hidratación. Y desde el punto de vista normativo, la presencia de esta fracción silícica reactiva en las puzolanas viene regulada por la norma EN 197-1, de modo general, siendo además referida por la norma EN 450-1:2006, en el contexto de las cenizas volantes en su adición al hormigón, como "un polvo fino de partículas principalmente de forma esférica y cristalina, procedentes de la combustión de carbón pulverizado, que tiene propiedades puzolánicas y que está compuesto fundamentalmente de SiO2 y Al2O3". Además y de acuerdo con la primera de las dos normas, "El contenido de dióxido de silicio reactivo (definido y determinado según la norma EN 196-2 o su equivalente la UNE 80225) no debe ser inferior al 25 % en masa". Por su parte, cuantiosos estudios experimentales realizados por Talero solo y con otros investigadores, han demostrado que si la puzolana no es adecuada en calidad ni en cantidad, la durabilidad del cemento del que forme parte, y, por consiguiente, de los productos derivados que con él se fabriquen, hormigones, morteros, pastas y prefabricados, puede llegar a ser anormalmente baja, porque la alúmina reactiva, Al2O3r-, o alúmina tetra- o penta-coordinada que la constituye, se implica como tal, de una forma muy directa y con resultados totalmente contrapuestos incluso, en los ataques químicos agresivos naturales que se les producen, provenientes de terrenos y aguas selenitosas (sulfatos, que atacan en su caso al propio material hormigón, mortero y pasta que la contiene para formar ettringita de rápida formación, ett-rf, la cual puede llegar incluso a provocar un ataque rápido del yeso), del rocío marino y de las sales de deshielo (cloruros, que atacan, en cambio, a las armaduras de acero del hormigón provocándoles su corrosión electroquímica por "picadura", si bien, en este otro ataque químico, dicha Al2O3r- lo que origina es sal de Friedel de rápida formación, sF-rf, también, cuyo efecto es, en cambio, colmatador y protector, en definitiva, de dicha corrosión electroquímica), del agua de mar (acción agresiva mutua de cloruros y sulfatos), de la carbonatación, de la reactividad árido-álcali, además de intervenir en la liberación del calor de hidratación, así como también, en el comportamiento reológico de sus pastas, etc., acortándoles de este modo su durabilidad prevista y, en ocasiones, muy seriamente incluso. Pero lo más paradójico de todo es, que a pesar de su referido comportamiento totalmente contrapuesto, frente a sulfatos y cloruros, - aún no se dispone de un método de análisis químico para su determinación cuantitativa, que sea además relativamente sencillo en su operatividad, veraz, preciso, de respuesta rápida, desde el punto de vista técnico de la construcción (no más de 28 días), repetible, reproducible, que no implique peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, económico, y que sirva también tanto para investigación -vertiente científica-, como, sobre todo, para control de calidad -vertiente técnica-, - y ni mucho menos tampoco se dispone todavía, de especificación química alguna que precise el contenido máximo de Al2O3r- (%) que tiene que poseer una puzolana natural o artificial, para poder ser añadida al cemento Portland y/o al hormigón que va a estar sometido a un determinado ataque químico agresivo de los mencionados antes, y, en especial, a sulfatos, a cloruros o al agua de mar. Y para mayor justificación de ambas necesidades, se ha de decir también que la vigente Instrucción de Hormigón Estructural EHE-08 no contempla tampoco especificación química alguna sobre los "factores hidráulicos", en general, ni del contenido de Al2O3r-(%) de las cenizas volantes, muy en particular, en su Artículo 30º "Adiciones", ni en ningún otro Artículo, a pesar de que sí contempla, en cambio, - otras especificaciones químicas que carecen del necesario significado en cuanto a la necesidad de llevar explícita o implícitamente, el mensaje de la Durabilidad Química deseado, y - el Artículo 37º, el cual y para mayor abundamiento se titula paradójicamente "Durabilidad del hormigón y de las armaduras". Asimismo, tampoco se contempla en la última versión que acaba de publicarse de la norma EN 197-1 titulada: "Cementos. Parte 1: Composición, especificaciones y criterios de conformidad de los cementos comunes". Ni tampoco, en la norma EN 450-1:2006 titulada "Cenizas volantes para hormigón. Parte 1: Definiciones, especificaciones y criterios de conformidad", ni en la vigente Instrucción española para la Recepción de Cementos, RC-08, ni en la norma ASTM C618-03 tampoco. La única especificación química que ambas normas, la europea y la norteamericana, refieren es aquella que dice que la suma de los contenidos porcentuales de SiO2 total, Al2O3 total y Fe2O3 total, de la puzolana natural o artificial, ha de ser mayor o igual que 70 %, definiendo, además, a las puzolanas de este modo tan genérico: "materiales silíceos o silíceos y aluminosos, que por sí mismos no poseen valor cementante alguno, pero que finamente divididos y en presencia de humedad, reaccionarán químicamente con hidróxido de calcio a temperaturas ordinarias para formar compuestos que poseen propiedades cementantes". Por consiguiente y de acuerdo con todo lo anterior, el objetivo primordial de esta Tesis Doctoral ha sido: Diseñar y poner a punto un nuevo método analítico de utilidad técnica (que la duración máxima del ensayo no sea mayor de 28 días), para determinar el contenido de alúmina reactiva, vítrea o amorfa, Al2O3r-, de las puzolanas naturales y artificiales. Y una vez puesto a punto, validarlo a nivel de su repetibilidad, de acuerdo con parámetros estadísticos apropiados, poniendo especial énfasis en los criterios de aceptación establecidos por la American Association of Official Analytical Chemists (AOAC). Y para conseguirlo, la innovación de esta investigación se ha basado en los siguientes fundamentos generales, a saber: - Toda la alúmina de cualquier puzolana natural o artificial, capaz de ser atacada, disuelta y lixiviada en 28 días, por la portlandita o por el hidróxido de calcio, Ca(OH)2, en medio acuoso, es considerada como alúmina reactiva, Al2O3r-. - Dicha fracción alumínica reactiva de la puzolana natural o artificial se tiene que encontrar, además, en el estado físico-químico de poder reaccionar químicamente también, en presencia de hidróxido de calcio, cloruro de sodio y agua, para originar monocloro¿aluminato de calcio hidratado, C3A·CaCl2·10H2O, o sal de Friedel. Además, dicho estado físico-químico de la puzolana ha de ser acorde con la definición de alúmina reactiva adoptada en esta investigación en razón de las prestaciones reales de durabilidad química que le puede llegar a conferir a los cementos de mezcla y a sus productos derivados, hormigones, morteros y pastas, que se fabriquen con la misma. - La originalidad de este nuevo método analítico, respecto a los demás métodos ya existentes, reside en que la cuantificación de dicha fracción alumínica reactiva de la puzolana natural o artificial, se realiza mediante cálculo estequiométrico, basándose, para ello, en dicha reacción química de formación de sal de Friedel precisamente, tras 28 días de hidratación básica-salina acelerada de la puzolana natural o artificial, habiéndose realizado, además, en esta investigación dicha determinación cuantitativa de la cantidad de sal de Friedel originada por cada puzolana, mediante dos técnicas analíticas instrumentales que fueron las siguientes: el análisis termogravimétrico (variante I ó I-I en su caso) y el método de Rietveld con la difracción de Rayos X en polvo (variante II). - La reacción química de formación de sal de Friedel tras 28 días de hidratación básica-salina acelerada de las puzolanas que se analicen, se optimizó para asegurar que el único compuesto químico de aluminio y cloro formado fuese sal de Friedel nada más (dosificando para ello en cantidad adecuada los reactivos químicos necesarios: Ca(OH)2, NaCl y agua destilada), manteniendo, además y por otra parte, el compromiso apropiado entre el máximo rendimiento de dicha reacción química (ataque, disolución y lixiviación en 28 días, de toda la alúmina reactiva de la puzolana) y el modo y medios más adecuados de acelerarlo para conseguirlo fue a 40°C de temperatura, con agitación constante y cierre hermético del reactor. - La aplicabilidad y selectividad del nuevo método analítico, objeto de esta Tesis Doctoral, fue estudiada con una serie de puzolanas naturales y artificiales españolas, silíceas y/o silíceas y aluminosas en naturaleza, que fueron las siguientes: M0 (metacaolín 0), M1 (M0 con 50 % de cuarzo), C y L (puzolanas naturales de las Islas Canarias), CV10 y CV17 (cenizas volantes), A (puzolana natural de Almagro), O (puzolana natural de Olot) y HS (humo de sílice). - Todas las adiciones minerales anteriores cumplieron con los principales requisitos físicos y químicos que son preceptivos para poder considerarlas, antes de todo, como puzolanas, lo que era indispensable y de obligado cumplimiento, para poderles determinar su contenido total de Al2O3r- (%) mediante el nuevo método analítico. Estos condicionantes fueron los siguientes: grado adecuado de finura de molido o tamaño medio de partícula (según la norma EN 451-2), haber sido analizadas químicamente antes de todo (según la norma EN 196-2 ó la ASTM C311), con el fin de determinarles especialmente, sus contenidos totales de SiO2 (%), Al2O3 (%) y Fe2O3 (%), haberles determinado, además, su contenido de sílice reactiva, SiO2r- (%) (según la norma UNE 80225), y haber cumplido con el ensayo de puzolanicidad o de Frattini (según la norma EN 196-5) a la edad de 28 días al menos. Este último requisito, otrora de obligado cumplimiento hasta el año 1988, para cualquier puzolana natural y artificial que una fábrica de cementos pretendiera introducir en el proceso de fabricación de un nuevo cemento puzolánico o cemento tipo CEM IV, ha logrado así, que se tenga que volver utilizar de nuevo de forma obligada con esta Tesis Doctoral. Y los resultados obtenidos con el nuevo método analítico de los contenidos de Al2O3r-(%) de las puzolanas seleccionadas, fueron los siguientes: - Mediante su variante I: M0 29.9 %, M1 16.9 %, CV10 11.4 %, L 12.3 %, C 12.6 %, A 8.0 %, CV17 9.5 % y O 6.3 % de Al2O3r-, y - Mediante su variante II: M0 30.7 %, M1 15.4 %, CV10 14.7%, L 11.8 %, C 11.1 %, A 8.9 %, CV17 9.6 % y O 6.8 % de Al2O3r-. Finalmente, todos ellos fueron contrastados, además, mediante la calibración y validación del nuevo método analítico, con los valores de referencia obtenidos de esas mismas puzolanas, los cuales se les habían determinado mediante el método de Florentín, consistente en atacar, disolver y lixiviar también toda la fracción alumínica soluble de la puzolana (y además, aquella silícica y férrica que la constituyen a la par), pero, en especial, su contenido total de alúmina reactiva, mediante un ataque básico (con Ca(OH)2 en medio acuoso a temperatura del laboratorio, habiendo sido, además, su duración hasta 1 año), seguido de otro ácido (con HCl, d = 1.12), habiéndose obtenido esta vez los siguientes resultados de sus contenidos de Al2O3r- (%): M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % y O 9.5 %. Dicha validación realizada ha puesto de manifiesto, en términos generales, que el nuevo método analítico es más fidedigno que el de Florentín, por lo que resulta ser totalmente apropiado para obtener los resultados que se han pretendido, además de proporcionarlos en un espacio de tiempo relativamente corto (28 días a lo sumo) y a un coste económico razonable por no elevado (salvo error u omisión y libre de impuestos directos e indirectos, el coste económico estimado de la variante I estaría en torno a 800.00 - 900.00 €/puzolana -caso más probable-, y aproximadamente una tercera parte nada más, en el caso de que la edad máxima del ensayo acelerado sea 7 días nada más -caso menos probable-), y, por consiguiente, técnicamente aceptable, al cumplir, además, en todo el rango considerado de variabilidad posible de concentraciones o contenidos del analito buscado en la puzolana, con tales parámetros de validación como son: linealidad (los resultados obtenidos son directamente proporcionales a la señal-respuesta instrumental recibida), sensibilidad, precisión excelente, repetibilidad satisfactoria de los valores obtenidos de los contenidos de Al2O3r- de todas y cada una de las adiciones puzolánicas seleccionadas, confirmando, por ello, la universalidad de su uso. Finalmente, las ventajas del nuevo método analítico, respecto a los métodos ya existentes recopilados de la bibliografía (el método de Florentín, el método de López Ruiz -HF 40 % y HNO3 2N-, el método de Murat y Driouche para arcillas -HF 0.5M-, el método de Arjuan, Silbee y Roy para cenizas volantes -HF 1 %- y su modificación por Fernández-Jiménez y cols. -HF 1 %, 27Al NMR MAS y XRD (método de Rietveld)-, y el método de determinación de la relación SiO2r-/Al2O3r- para arcillas y cenizas volantes por Ruiz-Santaquiteria y cols. -HF 1 %, NaOH 8M y ICP-AES-) son, principalmente, estar exento de peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, ser bastante apropiado para control de calidad además de para investigación, su considerable menor coste económico, su relativamente corto espacio de tiempo que se necesita para obtener la respuesta-resultado pretendida (28 días a lo sumo), así como su universalidad y selectividad, puesto que además, su aplicabilidad es para todo tipo de adiciones puzolánicas naturales o artificiales, como así lo demuestran los resultados obtenidos de los materiales puzolánicos naturales y artificiales seleccionados y analizados, en un rango de concentraciones del analito -contenido de alúmina reactiva, Al2O3r- (%)-, desde el 5 % hasta el 30 % en masa, rango éste que, por otra parte, comprende prácticamente TODAS las adiciones puzolanas naturales y artificiales existentes en el mercado transnacional y las aún por existir. Por consiguiente y de acuerdo con lo anterior, el nuevo método analítico, ya sea realizado mediante su variante I o la II, debido, - en primer lugar, a los fundamentados planteamientos relativos a su procedimiento experimental -modus operandi- el cual ha sido aplicado a una amplia gama de puzolanas naturales y artificiales, y - en segundo lugar, debido a la calidad de los resultados obtenidos con un grado de precisión y repetibilidad excelentes, ha demostrado poseer una gran utilidad científica -para investigación-, pero, sobre todo, técnica -para control de calidad de adiciones puzolánicas naturales y artificiales que se adicionan habitualmente al cemento Portland en fábrica y/o a sus hormigones y morteros en planta-, además de ser representativos los valores obtenidos mediante el mismo respecto a la más que probable durabilidad química que cada una de ellas puede llegarle a conferir al hormigón armado y en masa, mortero y pasta del que forme parte, así como también su cantidad adecuada de sustitución parcial de cada cemento Portland para conseguirla, acorde con sus propias prestaciones químico-físicas o físico-químicas que puede llegarle a conferir, según sea su carácter químico (alumínico, alumínico-silícico, silícico-alumínico, silícico-férrico-alumínico o silícico), forma y tamaño medio de su partícula. Por último, el nuevo método analítico ha demostrado cumplir además, con todos los requisitos de obligado cumplimiento que establece la norma ISO/IEC 17025 sobre la calidad y fiabilidad de nuevos métodos o procedimientos analíticos no normalizados todavía, para poder ser propuesto en un futuro próximo, ante la Comisión de AENOR correspondiente, con objeto de comenzar un expediente para su certificación y normalización. ________________________________________________________________________________ Both the subject of this research, its objectives, fundamentals, materials selected and experimental part to achieve, have all been promoted by the situation and the state of reinforced concrete constructions that began performing in Spain from 1975, with concrete and mortars cement containing fly ash up to 20 %, in principle, and later, up to 35 % to its content of Portland cement, which and against expected, demanded a need to improve their performance, especially due to an unexpectedly low level of durability of some works built with them, despite, however, its apparent benefits of all kinds are ascribed to them. Ultimately, the natural or artificial pozzolanic additions, such as fly ash specially, referred to above, have been used with regulation to manufacture cements and/or its derivatives, concretes, mortars, cement pastes, in the most industrialized countries. More than three decades ago, under the same conditions and identical construction mainly uses concretes and mortars plain Portland cement, besides coming, given that use of these waste materials, industrial by-products today for environmental and/or economic issues. For this reason, this Doctoral Thesis aims to answer properly and schematically (in the form of flow chart), the criteria to be taken into account when selection and characterization standardized for these active mineral additions, especially prior to choosing and use in the so-called Portland Cement (PC) pozzolan, or with fly ash or with calcined shales or with calcined pozzolans or with silica fume or PC mixed or pozzolanic cement or compound cement, for that such pathology problems will not occur when reinforced concretes nor mass concretes are used for building. Hence the very particular and special focus about this research, having confined only to the natural or artificial pozzolans, considering them all, regardless of their origin, approach as materials consisting of small crystalline fractions randomly distributed in a largely vitreous and/or amorphous matrix, which confers their reactivity with calcium hydroxide in the form of slaked lime or portlandite from PC. In turn, these vitreous and/or amorphous fractions consist in its greater part, by reactive silica, SiO2r-, reactive alumina, Al2O3r-, and reactive iron oxide, Fe2O3r-, which also receive, in conjunction, the specific name of "hydraulic factors" of the pozzolan. Usually, they all differs in quantity of their respective total contents of the SiO2 (%), Al2O3 (%) and Fe2O3 (%) determined the pozzolan by alkaline fusion by means of standard procedures. Of the three above-mentioned oxides reagents and from the technical point of view, the most important for its increased presence in every one of the natural or artificial pozzolans and also significance in the chemical durability that can get them to give the concrete mortar or cement paste which contain them, are SiO2r- and Al2O3r-. From the first two, the SiO2r- reacts with portlandite only, released in the hydration of the PC (and with Ca(OH)2), to form C-S-H gels, transformed in tobermorites or jennites later on, similar to C-S-H gels also originating from the alite and belite hydration in the CP. From the standardization criteria point of view, the presence of this silicic fraction in pozzolans is regulated at first, by the European standard EN 197-1, in general, also being referred by the EN 450-1:2006, in the context of the fly ash in addition to the concrete, as a "fine powder of spherical particles mainly crystalline form. It is from the combustion of pulverized coal, which have pozzolanic properties and is mainly composed of SiO2 and Al2O3". In addition and according to the EN 197-1 standard, the reactive silica content (which can be defined and determined in accordance with EN 197-1 standard or its UNE 80225 standard) must not be lower than 25 % of its mass. Meanwhile, considerable experimental studies by Talero and Talero et al, have shown that if the pozzolan is not adequate in quality nor quantity, the durability of cement that is part and, therefore, of its derivative products, concretes, mortars and pastes cement, can become abnormally low because its reactive alumina, Al2O3r- (%), content or tetra- or penta-coordinated alumina which involves itself in a very direct and totally mixed and conflicting results even at all aggressive chemical attack natural to produce to the concrete, mortar and paste with inadequate natural and/or artificial pozzolans, such as those from the selenitous land and waters (sulfates, strikes if the material itself concrete, mortar and paste that contain them, for rapid forming ettringite form, ett-rf, which can even cause rapid gypsum attack to said concrete). In contrast, sea spray and de-icing salts (chlorides strikes the reinforced steel concrete causing them electrochemical corrosion by "bite", although in that other chemical attack, such Al2O3r- causes rapid Friedel's salt formation, Fs-rf, too, to cause protector effect of the electrochemical corrosion of reinforcements for these chlorides), seawater (mutual aggressive action of chlorides and sulfates), carbonation, alkali-silica reaction, and, in addition, to influence the release of hydration heat, as well as in the rheological behavior of the pastes, etc., decreasing/shorting them thus their expected durability and sometimes even very seriously. But the most ironic thing is, that despite its referral totally opposed, compared to sulfates and chlorides, behaviour, - far not available is, a chemical analysis method for its quantitative determination, which is also relatively simple in operation, accurate, precise, rapid response, from a technical point of view for building (no more than 28 days), repeatable, reproducible, not involving danger to life safety of the people who need to manipulate and implement, economic, and also serve for both scientific research and technical side, and - has yet to be any chemical specification that sets maximum levels for Al2O3r-(%) in the natural or artificial pozzolan to be added to the cement and/or to the concrete that will be subject to a particularly aggressive chemical attack from those mentioned above, and in particular, to sulphates, chlorides or sea water. And for the sake of and justification of this need, it has to be said that the current Spanish Instruction for Structural Concrete EHE-08 does not provide any specification on "hydraulic factors" in general, nor the content of Al2O3r- (%) in fly ash, very particular, as Article 30º "Additions", or any other Article, although does provide, however, other chemical specifications lacking the necessary meaning in terms of the message Chemical Durability mentioned, nor the Article 37º which and for greater sake, is paradoxically entitled "Durability of the concrete and of their reinforcements". It has also not contemplated in the latest version just released from EN 197-1 standard entitled "Cement Part 1: Composition, specifications and conformity criteria for common cements". Nor, in EN 450-1:2006 entitled "Fly ash for concrete Part 1: Definitions, specifications and conformity criteria", nor by current Spanish Instruction for Cement Reception, RC-08, nor the ASTM C618-03 Standard either. The only chemical specification that both Standards, European and American, refer is one that says that the sum of the total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%) of natural and artificial pozzolan, must be greater than or equal to 70 % , defining pozzolans thus: "siliceous or aluminous and siliceous materials, which themselves do not have any cementitious value but finely divided and in the presence of moisture it reacts with calcium hydroxide at ordinary temperatures to form compounds possessing cementitious properties". Consequently and according to everything related before, the primary objective of this Doctoral Thesis has been: To design and start-up a new quantitative analytical method of technical utility (the maximum test duration is not more than 28 days), to determine the content of reactive alumina content, Al2O3r- (%), vitreous or amorphous alumina, of natural and artificial pozzolans. And once designed, validate at repeatability level and in accordance with appropriate statistical parameters with special emphasis on the acceptance criteria established by the American Association of Official Analytical Chemists (AOAC). And to achieve this, the innovation of this research has been based on the following general principles, namely: - All the alumina in any pozzolan, natural or artificial, that can be attacked, dissolved and leached by portlandite or calcium hydroxide, Ca(OH)2, in aqueous medium, is considered reactive alumina, Al2O3r-. - This aluminic fraction of natural or artificial pozzolan to analyze and study, has to be in such physical-chemical state that it can react in the presence of calcium hydroxide, sodium chloride and water status and to cause monochloro-aluminate hydrated calcium, C3A·CaCl2·10H2O or Friedel's salt. Moreover, such physical-chemical state of the pozzolan must be consistent with the definition of reactive alumina adopted in this research because of the actual performance of chemical durability that can reach confer on blended cements and their derivatives, concretes, mortars and pastes that are manufactured with the same. - The originality of this new analytical method, compared to the other methods for determining reactive alumina existing (collected in abbreviated form in the state of the art of this report), is the quantification of such aluminic fraction of natural or artificial pozzolans is performed by stoichiometric calculation based on this, in the chemical reaction of Friedel's salt formation after 28 days of the analysis of saline-basic hydration accelerated natural or artificial pozzolan also performed in this research, and the quantitative determination of the Friedel's salt has been performed by two instrumental analytical techniques known as thermogravimetric analysis (variant I), and Rietveld method with X-ray powder diffraction (variant II). - The chemical reaction of Friedel's salt formation after 28 days of accelerated saline-basic hydration of the selected natural and artificial pozzolan, was optimized to ensure that the single chemical compound of aluminium and chlorine formed was Friedel's salt only (dosing for this purpose in amount suitable chemical reagents: Ca(OH)2, NaCl and distilled water), and, on the other hand, maintaining the appropriate compromise between the highest yield from the chemical reaction (attack, dissolution and leaching in 28 days, all reactive alumina of pozzolan) and to accelerate the etching media, which were 40°C temperature, constant stirring and sealing the reactor. - The applicability and selectivity of the new analytical method, the subject of this Doctoral Thesis, was studied with a series of Spanish natural and artificial pozzolans, siliceous or siliceous and aluminous in nature, which were as follows: M0 (metakaolin 0), M1 (M0 with 50 % quartz), L and C (natural pozzolans of the Canary Islands), CV10 (fly ash 10), CV17 (fly ash 17), A (natural pozzolan of Almagro), O (natural pozzolan of Olot), and HS (silica fume). - All mineral admixtures were selected satisfied the physical and chemical requirements proposed to consider them as pozzolan, which was mandatory, so its Al2O3r- (%) content can determine by the new analytical method. These conditions were as follows: adequate degree of fineness of grind or average particle size (according to EN 451-2 standard), have been analyzed chemically (according to EN 196-2 or ASTM C311 standards), in order to determine their total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%), mainly, having also determined its reactive silica content, SiO2r- (%) (UNE 80225 standard), and fulfilled with testing of pozzolanicity or Frattini test (according to EN 196-5 standard) at 28 days age at least. The last criteria was mandatory until 1988, for any natural and artificial pozzolan to a factory intended to introduce cements in the manufacturing process of a new Portland cement type CEM IV pozzolanic additions, and with this Doctoral Thesis has made is to be used once again mandatory. And the results obtained using the new analytical method, of the Al2O3r- (%) content for each selected pozzolan, were as follows: - by its variant I: M0 29.9 % , M1 16.9 % , CV10 11.4 % , L 12.3 % , C 12.6 % , A 8.0 % , CV17 9.5 % and O 6.3 % of Al2O3r-, and - by its variant II: M0 30.7 % , M1 15.4 % , CV10 14.7% % , L 11.8 % , C 11.1 % , A 8.9 % , CV17 9.6 % and O 6.8 % of Al2O3r-. Finally, they would all be further contrasted by the calibration and validation of new analytical method, with reference values obtained from these same natural and artificial pozzolans, which had been given by the method of Florentin, consisting of attack, dissolve and leached with a basic attack (with Ca(OH)2 in aqueous medium and laboratory temperature, having also been its duration up to 1 year), followed by another acid attack (HCl, d = 1.12), all soluble aluminic fraction of pozzolan, and in particular their total content of reactive alumina, Al2O3r-(%), was this time as follows: M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % and O 9.5 % (and their siliceous and iron contents that are at par). This validation has shown on the new analytical method is more reliable than Florentin method, so it turns out to be entirely appropriate to get the results that have been tried by the same, besides providing them a relatively short space of time (28 days at most) and reasonably no high economic cost (unless mistake -free direct and indirect taxes, such economic cost would be between 800.00 - 900.00 €/pozzolan (most likely case), and about an one-third part around, in the event that the maximum age of the accelerated test is 7 days only (less likely case). So it is technically acceptable, to consider the range of possible variability of concentrations or contents pozzolan analyte with validation parameters such as: linearity (the results obtained are directly proportional to the instrumental response signal received), excellent sensitivity and accuracy, satisfactory repeatability values from the contents of each and Al2O3r- (%) each selected pozzolan, confirming therefore universal use. Finally, the advantages of the new analytical method over existing methods compiled from literature (Florentin method , the Lopez Ruiz method -HF and HNO3 40 % 2N-, the method of Murat and Driouche for clays -0.5M HF-, the method of Arjuan, Roy and Silbee for fly ash -HF 1 %- and its modification by Fernández-Jiménez et al -HF 1 %, 27Al MAS NMR and XRD (Rietveld method)-, and the method for determining the SiO2r-/Al2O3r- clay and fly ash ratio of Santaquiteria Ruiz et al -HF 1 %, NaOH 8M and ICP-AES-) are primarily and relatively short time get the result intended answer (28 days at most), its considerable lower cost, free from danger to the life safety of the people who need to manipulate and put in practice as well as its universality and selectivity, since it is applicable for all types of natural or artificial pozzolans, as it has been shown by the results of selected natural and artificial pozzolanic materials and analyzed in a range of analyte concentrations -reactive alumina, Al2O3r- (%) content- from 5 % to 30 % by mass, this range, on the other hand, includes virtually ALL existing transnational market in natural and artificial pozzolans and still exist. Therefore and in accordance with the above, the new analytical method is already performed by the variant I or II, because, - firstly, grounded to experimental approaches concerning its experimental procedure -"modus operandi"- which has been applied to a wide range of natural and artificial pozzolans, and - secondly, due to the quality of the results obtained with a great degree of accuracy and repeatability, it has been shown to possess significant scientific value in the research, but especially technical value -for quality control of natural and artificial pozzolans commonly added to Portland cement factory and/or directly to their concrete and mortar in plant-, and also be representative enough of the values obtained by the same probable chemical durability that each of them can reach out to give the concrete mortar and paste to which it belongs, as well as proper amount of partial replacement of Portland cement. To get in line with their own chemical-physical or physical-chemical features which can come to confer, as its chemical character (aluminic, silicic-aluminic, aluminic-silicic, aluminic-ferric-silicic or ferric-silicic), form and medium size of its particle is. Finally, the new analytical method has proven to meet all mandatory requirements established by ISO/IEC 17025 on the quality and reliability of new methods or analytical procedures are not standardized yet, in order to be considered appropriate this new analytical method, in this Doctoral Thesis it is to be proposed in the near future, before the corresponding AENOR (Spanish Association for Standardization and Certification) Commission, to start a procedure for certification and standardization.
Resumo:
El trabajo presenta el seguimiento de los resultados académicos de alumnos de una asignatura durante una serie de cursos académicos. Este seguimiento se puede hacer desde la propia asignatura, un grupo de la misma o el Observatorio de Calidad del Centro. Sin embargo los datos disponibles no son los mismos. Un profesor o el coordinador de una asignatura cuentan con los datos internos de la asignatura y pueden distinguir entre curso y resultados finales. La evaluación puede ser más rápida, incluso actividad por actividad y con ello pueden enfocar la mejora de las actividades docentes.Desde un Observatorio de Calidad, no se dispone de datos internos de las asignaturas, sin embargo hay una serie de datos objetivos que se pueden obtener y que permiten hacer, también, un seguimiento de determinados resultados.Objetivos: Evaluar resultados y planificar actividades docentes encaminadas a mejorar la docencia y los resultados de una asignatura determinada. Desde un Observatorio de Calidad del Centro se puede realizar un estudio por asignaturas, departamentos o global del centro.Método: Las asignaturas troncales en la ETS de Arquitectura de la UPM, para el Plan 96, se imparten en los dos semestres y existe una convocatoria extraordinaria en julio. Se puede disponer de los datos de Matriculados, Presentados, No Presentados, Aprobados y Suspensos de cada una de las asignaturas en cada convocatoria, incluso del número de alumnos con calificación diferente al Aprobado. En función de los resultados que se desee obtener, es suficiente tener un número global de Aprobados o por su calificación. Estos datos se pueden tratar como valores totales de número de Alumnos o, como porcentaje de alumnos sobre el Total de Alumnos Matriculados o sobre el Total de Alumnos Presentados, para cada una de las convocatorias o en el total del curso. En este estudio, se ha considerado la cifra global de Aprobados para una asignatura.Resultado: Con la representación de los datos por semestre, se puede observar si hay simetría o no entre los dos, pudiendo planificar los grupos ofertados en cada uno de ellos en función de la tendencia de matrícula de los alumnos, así como analizar la relación entre el número de matriculados, de cada convocatoria, en función de los resultados de convocatorias anteriores. También permite evaluar el efecto de las iniciativas de innovación educativa, en función de la comparación con los resultados anteriores o, considerar la necesidad de realizar alguna actividad de mejora docente. Se observa también la incidencia de los resultados de los semestres en la convocatoria de julio y de los resultados de un curso en el siguiente. Se aprecia también la constancia del porcentaje de Alumnos No presentados. Conclusiones: La representación gráfica de la evolución interanual de los resultados de las asignaturas permite un seguimiento en la planificación del número de grupos a ofertar en cada convocatoria y, evaluar las actividades de innovación educativa puesta en marcha en las asignaturas así como los resultados de las asignaturas, departamentos o, incluso, el centro.
Resumo:
El aceite de pescado ha sido la principal fuente de grasa incluida en la dieta de salmón Atlántico ya que su uso optimiza el crecimiento y aporta grandes cantidades de ácidos grasos poliinsaturados (PUFA) omega 3, principalmente los ácidos eicosapentaenoico (EPA) y docosahexaenoico (DHA). En los años 90 se utilizaba un 24% de aceite de pescado en los piensos para salmón, sin embargo la escasez del recurso y la presión comercial sobre su demanda por parte de distintos sectores ha dado lugar a una progresiva reducción de su inclusión teniendo la industria como objetivo llegar a utilizar en 2020 tan sólo un 8%. Al reducir los niveles de aceite de pescado disminuye el contenido de EPA y DHA aportado, por lo que se hace necesario diseñar estrategias que permitan maximizar la retención de EPA y DHA en los tejidos del animal. De esta forma, la optimización del uso de antioxidantes para prevenir la peroxidación lipídica de los ácidos grasos poliinsaturados de cadena larga (LC-PUFA), puede ser una estrategia a seguir. Entre los antioxidantes empleados en acuicultura destaca la vitamina E. Aunque el α-tocoferol es el isómero principal de la vitamina E, estudios recientes sugieren que el γ-tocoferol presenta igualmente una potente actividad antioxidante. Sin embargo, hasta la fecha no hay muchos estudios con salmón Atlántico empleando γ-tocoferol como principal isómero añadido en la dieta. Además de su función como antioxidante, en investigaciones recientes la vitamina E ha mostrado capacidad para inducir de manera directa o indirecta la expresión de genes que codifican enzimas implicadas en el metabolismo de los ácidos grasos. Con esta perspectiva el presente trabajo tiene como principal objetivo determinar si la incorporación de 300 ppm de γ-tocoferol a la dieta del salmón da lugar a una mayor capacidad antioxidante en los tejidos del animal, disminuyendo la oxidación lipídica in vivo y afectando tanto a la composición como al metabolismo lipídico. Un total de 180 esguines de salmón Atlántico (Salmo Salar) con un peso inicial de 137,4 ± 1g fueron distribuidos al azar y uniformemente en 6 tanques y fueron alimentados con una de las tres dietas experimentales. Se aportó agua salada a los tanques y la temperatura se mantuvo a 12°C. Las dietas experimentales se formularon para tener: bajo contenido en EPA y DHA (CB); alto en EPA y DHA (CA); y con bajos niveles de EPA y DHA pero con un suplemento de 300 ppm de γ-tocoferol como antioxidante (CB+γtoc). Las dietas fueron suministradas en tanques duplicados durante 14 semanas. Al final del experimento, se sacrificaron 4 peces de cada tanque y se tomaron muestras de hígado y filete izquierdo para realizar el análisis de ácidos grasos y de expresión génica. A pesar de que los peces alimentados con la dieta CB+γtoc presentaron 3 veces más concentración de γ-tocoferol en los tejidos, la administración de esta dieta no tuvo un efecto significativo (P>0.05) sobre la composición de EPA, DHA y ácido araquidónico (ARA) en los tejidos del salmón. Los resultados del análisis de expresión de genes mostraron que la incorporación de 300 ppm de γ-tocoferol dio lugar a una cierta inhibición del metabolismo lipídico tanto de genes relacionados con la β-oxidación como de aquellos relacionados con la síntesis de LC-PUFA. En cuanto al sistema de defensa antioxidante GPx4, los resultados indicaron que no hubo efecto estimulatorio del γ-tocoferol sobre el mismo. Sin embargo, se observó un aumento de omega 3 totales (P<0.05) en el músculo del animal. La incorporación de 300 ppm de γ-tocoferol tuvo un efecto limitado sobre la composición lipídica y un efecto inhibitorio del metabolismo lipídico a nivel de expresión.
Resumo:
El geoide, definido como la superficie equipotencial que mejor se ajusta (en el sentido de los mínimos cuadrados) al nivel medio del mar en una determinada época, es la superficie que utilizamos como referencia para determinar las altitudes ortométricas. Si disponemos de una superficie equipotencial de referencia como dátum altimétrico preciso o geoide local, podemos entonces determinar las altitudes ortométricas de forma eficiente a partir de las altitudes elipsoidales proporcionadas por el Sistema Global de Navegación por Satélite (Global Navigation Satellite System, GNSS ). Como es sabido uno de los problemas no resueltos de la geodesia (quizás el más importante de los mismos en la actualidad) es la carencia de un dátum altimétrico global (Sjoberg, 2011) con las precisiones adecuadas. Al no existir un dátum altimétrico global que nos permita obtener los valores absolutos de la ondulación del geoide con la precisión requerida, es necesario emplear modelos geopotenciales como alternativa. Recientemente fue publicado el modelo EGM2008 en el que ha habido una notable mejoría de sus tres fuentes de datos, por lo que este modelo contiene coeficientes adicionales hasta el grado 2190 y orden 2159 y supone una sustancial mejora en la precisión (Pavlis et al., 2008). Cuando en una región determinada se dispone de valores de gravedad y Modelos Digitales del Terreno (MDT) de calidad, es posible obtener modelos de superficies geopotenciales más precisos y de mayor resolución que los modelos globales. Si bien es cierto que el Servicio Nacional Geodésico de los Estados Unidos de América (National Geodetic Survey, NGS) ha estado desarrollando modelos del geoide para la región de los Estados Unidos de América continentales y todos sus territorios desde la década de los noventa, también es cierto que las zonas de Puerto Rico y las Islas Vírgenes Estadounidenses han quedado un poco rezagadas al momento de poder aplicar y obtener resultados de mayor precisión con estos modelos regionales del geoide. En la actualidad, el modelo geopotencial regional vigente para la zona de Puerto Rico y las Islas Vírgenes Estadounidenses es el GEOID12A (Roman y Weston, 2012). Dada la necesidad y ante la incertidumbre de saber cuál sería el comportamiento de un modelo del geoide desarrollado única y exclusivamente con datos de gravedad locales, nos hemos dado a la tarea de desarrollar un modelo de geoide gravimétrico como sistema de referencia para las altitudes ortométricas. Para desarrollar un modelo del geoide gravimétrico en la isla de Puerto Rico, fue necesario implementar una metodología que nos permitiera analizar y validar los datos de gravedad terrestre existentes. Utilizando validación por altimetría con sistemas de información geográfica y validación matemática por colocación con el programa Gravsoft (Tscherning et al., 1994) en su modalidad en Python (Nielsen et al., 2012), fue posible validar 1673 datos de anomalías aire libre de un total de 1894 observaciones obtenidas de la base de datos del Bureau Gravimétrico Internacional (BGI). El aplicar estas metodologías nos permitió obtener una base de datos anomalías de la gravedad fiable la cual puede ser utilizada para una gran cantidad de aplicaciones en ciencia e ingeniería. Ante la poca densidad de datos de gravedad existentes, fue necesario emplear un método alternativo para densificar los valores de anomalías aire libre existentes. Empleando una metodología propuesta por Jekeli et al. (2009b) se procedió a determinar anomalías aire libre a partir de los datos de un MDT. Estas anomalías fueron ajustadas utilizando las anomalías aire libre validadas y tras aplicar un ajuste de mínimos cuadrados por zonas geográficas, fue posible obtener una malla de datos de anomalías aire libre uniforme a partir de un MDT. Tras realizar las correcciones topográficas, determinar el efecto indirecto de la topografía del terreno y la contribución del modelo geopotencial EGM2008, se obtuvo una malla de anomalías residuales. Estas anomalías residuales fueron utilizadas para determinar el geoide gravimétrico utilizando varias técnicas entre las que se encuentran la aproximación plana de la función de Stokes y las modificaciones al núcleo de Stokes, propuestas por Wong y Gore (1969), Vanicek y Kleusberg (1987) y Featherstone et al. (1998). Ya determinados los distintos modelos del geoide gravimétrico, fue necesario validar los mismos y para eso se utilizaron una serie de estaciones permanentes de la red de nivelación del Datum Vertical de Puerto Rico de 2002 (Puerto Rico Vertical Datum 2002, PRVD02 ), las cuales tenían publicados sus valores de altitud elipsoidal y elevación. Ante la ausencia de altitudes ortométricas en las estaciones permanentes de la red de nivelación, se utilizaron las elevaciones obtenidas a partir de nivelación de primer orden para determinar los valores de la ondulación del geoide geométrico (Roman et al., 2013). Tras establecer un total de 990 líneas base, se realizaron dos análisis para determinar la 'precisión' de los modelos del geoide. En el primer análisis, que consistió en analizar las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A) en función de las distancias entre las estaciones de validación, se encontró que el modelo con la modificación del núcleo de Stokes propuesta por Wong y Gore presentó la mejor 'precisión' en un 91,1% de los tramos analizados. En un segundo análisis, en el que se consideraron las 990 líneas base, se determinaron las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A), encontrando que el modelo que presenta la mayor 'precisión' también era el geoide con la modificación del núcleo de Stokes propuesta por Wong y Gore. En este análisis, el modelo del geoide gravimétrico de Wong y Gore presento una 'precisión' de 0,027 metros en comparación con la 'precisión' del modelo EGM2008 que fue de 0,031 metros mientras que la 'precisión' del modelo regional GEOID12A fue de 0,057 metros. Finalmente podemos decir que la metodología aquí presentada es una adecuada ya que fue posible obtener un modelo del geoide gravimétrico que presenta una mayor 'precisión' que los modelos geopotenciales disponibles, incluso superando la precisión del modelo geopotencial global EGM2008. ABSTRACT The geoid, defined as the equipotential surface that best fits (in the least squares sense) to the mean sea level at a particular time, is the surface used as a reference to determine the orthometric heights. If we have an equipotential reference surface or a precise local geoid, we can then determine the orthometric heights efficiently from the ellipsoidal heights, provided by the Global Navigation Satellite System (GNSS). One of the most common and important an unsolved problem in geodesy is the lack of a global altimetric datum (Sjoberg, 2011)) with the appropriate precision. In the absence of one which allows us to obtain the absolute values of the geoid undulation with the required precision, it is necessary to use alternative geopotential models. The EGM2008 was recently published, in which there has been a marked improvement of its three data sources, so this model contains additional coefficients of degree up to 2190 and order 2159, and there is a substantial improvement in accuracy (Pavlis et al., 2008). When a given region has gravity values and high quality digital terrain models (DTM), it is possible to obtain more accurate regional geopotential models, with a higher resolution and precision, than global geopotential models. It is true that the National Geodetic Survey of the United States of America (NGS) has been developing geoid models for the region of the continental United States of America and its territories from the nineties, but which is also true is that areas such as Puerto Rico and the U.S. Virgin Islands have lagged behind when to apply and get more accurate results with these regional geopotential models. Right now, the available geopotential model for Puerto Rico and the U.S. Virgin Islands is the GEOID12A (Roman y Weston, 2012). Given this need and given the uncertainty of knowing the behavior of a regional geoid model developed exclusively with data from local gravity, we have taken on the task of developing a gravimetric geoid model to use as a reference system for orthometric heights. To develop a gravimetric geoid model in the island of Puerto Rico, implementing a methodology that allows us to analyze and validate the existing terrestrial gravity data is a must. Using altimetry validation with GIS and mathematical validation by collocation with the Gravsoft suite programs (Tscherning et al., 1994) in its Python version (Nielsen et al., 2012), it was possible to validate 1673 observations with gravity anomalies values out of a total of 1894 observations obtained from the International Bureau Gravimetric (BGI ) database. Applying these methodologies allowed us to obtain a database of reliable gravity anomalies, which can be used for many applications in science and engineering. Given the low density of existing gravity data, it was necessary to employ an alternative method for densifying the existing gravity anomalies set. Employing the methodology proposed by Jekeli et al. (2009b) we proceeded to determine gravity anomaly data from a DTM. These anomalies were adjusted by using the validated free-air gravity anomalies and, after that, applying the best fit in the least-square sense by geographical area, it was possible to obtain a uniform grid of free-air anomalies obtained from a DTM. After applying the topographic corrections, determining the indirect effect of topography and the contribution of the global geopotential model EGM2008, a grid of residual anomalies was obtained. These residual anomalies were used to determine the gravimetric geoid by using various techniques, among which are the planar approximation of the Stokes function and the modifications of the Stokes kernel, proposed by Wong y Gore (1969), Vanicek y Kleusberg (1987) and Featherstone et al. (1998). After determining the different gravimetric geoid models, it was necessary to validate them by using a series of stations of the Puerto Rico Vertical Datum of 2002 (PRVD02) leveling network. These stations had published its values of ellipsoidal height and elevation, and in the absence of orthometric heights, we use the elevations obtained from first - order leveling to determine the geometric geoid undulation (Roman et al., 2013). After determine a total of 990 baselines, two analyzes were performed to determine the ' accuracy ' of the geoid models. The first analysis was to analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) in function of the distance between the validation stations. Through this analysis, it was determined that the model with the modified Stokes kernel given by Wong and Gore had the best 'accuracy' in 91,1% for the analyzed baselines. In the second analysis, in which we considered the 990 baselines, we analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) finding that the model with the highest 'accuracy' was also the model with modifying Stokes kernel given by Wong and Gore. In this analysis, the Wong and Gore gravimetric geoid model presented an 'accuracy' of 0,027 meters in comparison with the 'accuracy' of global geopotential model EGM2008, which gave us an 'accuracy' of 0,031 meters, while the 'accuracy ' of the GEOID12A regional model was 0,057 meters. Finally we can say that the methodology presented here is adequate as it was possible to obtain a gravimetric geoid model that has a greater 'accuracy' than the geopotential models available, even surpassing the accuracy of global geopotential model EGM2008.
Resumo:
La ocurrencia de inestabilidades de ladera inducidas por terremotos es conocida en España y Portugal desde épocas remotas. Durante las últimas décadas, varios grupos de investigación han realizado estudios al respecto que han permitido recopilar información sobre este fenómeno. En este trabajo se realiza una revisión de las aportaciones realizadas y se presenta una base de datos elaborada a partir de tales contribuciones, la cual contiene eventos desencadenantes e inestabilidades asociadas ocurridos en la Península Ibérica y territorios insulares de España y Portugal. A partir de ella se analizan las características de las inestabilidades inducidas, considerando su tipología y las distancias de ocurrencia en función de la magnitud de los eventos desencadenantes. Los datos constituyen una base para futuros estudios de riesgos asociados a este fenómeno.
Resumo:
El presente trabajo se propone determinar la distribución de tamaño y número de partículas nanométricas provenientes de motores diésel con equipos embarcados en tráfico extraurbano. Para ello, se utilizaron equipos de medición de última generación en condiciones promedio de conducción en tráfico extraurbano por más de 800 km a lo largo del trayecto Madrid-Badajoz-Madrid mediante un vehículo característico del parque automotor español y se implementaron métodos novedosos y pioneros en el registro de este tipo de emisiones. Todo ello abre el camino para líneas de investigación y desarrollo que contribuirán a entender, dimensionar y cualificar el comportamiento de las partículas, así como su impacto en la calidad de vida de la población. El estudio hace dos grandes aportes al campo. Primero, permite registrar las emisiones en condiciones transitorias propias del tráfico real. Segundo, permite mantener controladas las condiciones de medición y evita la formación aleatoria de partículas provenientes de material volátil, gracias al sistema de adecuación de la muestra de gases de escape incorporado. Como resultado, se obtuvo una muestra abundante y confiable que permitió construir modelos matemáticos para calcular la emisión de partículas nanométricas, ultrafinas, finas y totales sobre las bases volumétrica, espacial y temporal en función de la pendiente del perfil orográfico de la carretera, siempre y cuando esté dentro del intervalo ±5.0%. Estos modelos de cálculo de emisiones reducen tanto los costos de experimentación como la complejidad de los equipos necesarios, y fundamentaron el desarrollo de la primera versión de una aplicación informática que calcula las partículas emitidas por un motor diésel en condiciones de tráfico extraurbano ("Partículas Emitidas por Motores Diésel, PEMDI). ABSTRACT The purpose of this research is to determine the distribution of size and number of nanometric particles that come from diesel engines by means of on-board equipment in extra-urban traffic. In order to do this, cutting-edge measuring equipment was used under average driving conditions in extra-urban traffic for more than 800 km along the Madrid-Badajoz-Madrid route using a typical vehicle from Spain's automotive population and innovative, groundbreaking registering methods for this type of emissions were used. All this paves the way for lines of research and development which should help understand, measure and characterize the behavior of such particles, as well as their impact in the quality of life of the general population. The study makes two important contributions to the field. First, it makes it possible to register emissions under transient conditions, which are characteristic to real traffic. Secondly, it provides a means to keep the measuring conditions under control and prevents the random formation of particles of volatile origin through the built-in adjustment system of the exhaust gas sample. As a result, an abundant and reliable sample was gathered, which enabled the building of mathematical models to estimate the emission of nanometric, ultrafine, fine and total particles on volumetric, spatial and temporal bases as a function of the orographic outline of the road within a ±5.0% range. These emission estimating models lower both the experimentation costs and the required equipment's complexity, and they provided the basis for the development of a first software application version that estimates the particles emitted from diesel engines under extra-urban traffic conditions (Partículas Emitidas por Motores Diésel, PEMDI).
Resumo:
El aumento progresivo de la temperatura media anual y el déficit hídrico están provocando importantes cambios en la composición y la maduración de la uva, que repercuten directamente sobre el proceso fermentativo y, por ende, sobre la calidad del vino elaborado. En este trabajo se evalúan diferentes estrategias para la reducción del grado alcohólico, la mejora del color del vino y su estabilidad, y el incremento y la persistencia aromática. Mediante el empleo de levaduras con ineficiencia glicolítica se lograron reducciones medias en el grado alcohólico de entre 0.3 y 1.7 % v/v, mientras que con las fermentaciones secuenciales la máxima reducción lograda fue de 3.3 y 3.4 % v/v al combinar las cepas 938 (Schizosaccharomyces pombe) y 7013 (Torulaspora delbrueckii) con la 7VA (Saccharomyces cerevisiae). Al aplicar un tratamiento térmico sobre el inóculo, la TP2A(16) mostró una reducción media significativa en el grado alcohólico de 1 % v/v. El principal inconveniente en todas las técnicas empleadas para reducir el grado alcohólico fue la falta de repetibilidad en los resultados obtenidos. Por otra parte, la aplicación de altas presiones sobre uva despalillada resultó efectiva como tratamiento de pasteurización y como potenciador de la extracción de polifenoles, logrando un incremento en el contenido medio de antocianos totales del 12.4-18.5 %. La adición de flavonoides al mosto estimuló la formación de pigmentos estables como resultado de su condensación con antocianos mediada por acetaldehído. Con el empleo de Torulaspora delbrueckii en fermentación secuencial fue posible incrementar la producción de diacetilo y acetato de 2-feniletilo, además de la síntesis de un nuevo compuesto, el 3-etoxi-1-propanol. Sin embargo, su aportación sobre el color fue nula, así que debería combinarse con una cepa de Saccharomyces cerevisiae con buena formación de pigmentos piranoantociánicos. El empleo de Schizosaccharomyces pombe (938, V1) y Torulaspora delbrueckii (1880) en fermentaciones secuenciales y mixtas con Saccharomyces cerevisiae permitió mejorar el perfil sensorial del vino tinto mediante la mayor síntesis de polioles y la potenciación de aromas frutales, florales y herbáceos, e incrementar la estabilidad de la materia colorante al favorecer la formación de vitisinas y piranoantocianos vinilfenólicos. La crianza sobre lías en barrica a partir de levaduras seleccionadas, puede mejorar la complejidad y persistencia aromática del vino tinto, aunque sin grandes cambios en el color. ABSTRACT The progressive increase in annual average temperature, along with water deficit, is causing significant changes in grape composition and in its maturation, which directly affects the fermentative process and hence alters wine quality. In this work, different strategies for reducing the alcoholic strength, improve wine color and its stability, and increase aromatic complexity and its persistence, are evaluated. By using yeasts with glycolytic inefficiency, it was possible to achieve mean reductions between 0.3 and 1.7 % v/v in the alcoholic strength, while sequential fermentations allowed a maximum reduction of 3.3 and 3.4 % v/v by combining strains 938 (Schizosaccharomyces pombe) and 7013 (Torulaspora delbrueckii) with 7VA (Saccharomyces cerevisiae). When applying a heat shock treatment on the inoculum, only TP2A(16) strain showed a significant mean reduction of 1 % v/v in the alcohol content, compared with the control. The main drawback in all the techniques used to reduce the alcohol content was the lack of repeatability in the results. Moreover, the application of high pressures on destemmed grapes was effective as pasteurization treatment and also as enhancer of polyphenol extraction, achieving an increase of 12.4-18.5% in the average content of total anthocyanins. As expected, addition of flavonoids to the must, stimulated the formation of stable pigments, mainly as a result of condensation reactions between anthocyanins and flavanols mediated by acetaldehyde. With the use of Torulaspora delbrueckii strains in sequential fermentation with Saccharomyces cerevisiae, it was possible to increase the production of diacetyl and 2-phenylethyl acetate, besides the synthesis of a new compound: 3-ethoxy-1-propanol. The use of Schizosaccharomyces pombe (938, V1) and Torulaspora delbrueckii (1880) strains in sequential and mixed fermentations with Saccharomyces cerevisiae improved the sensory profile of red wine by increasing polyols synthesis and enhancing fruity, floral and herbaceous aromas, and it also increased the stability of the coloring matter by favouring vitisins and vinylphenolic pyranoanthocyanins formation. Ageing on lees in barrels from selected yeasts can improve the complexity and aromatic persistence of red wine, without major changes in the color.
Resumo:
A lo largo de los años, el entrenamiento de fútbol ha experimentado un proceso de actualización, pasando de un modelo más tradicional a un modelo más actual, y el entrenador pasa de un segundo plano a tener el máximo protagonismo en lo que a toma de decisiones se refiere y a ser reconocido a nivel profesional, tanto en el mundo del fútbol como en otros foros académicos o culturales. Por ello, el objetivo del trabajo consiste en analizar la figura de cuatro entrenadores en activo con respecto a las actuaciones y decisiones que debería tomar o adopta durante la temporada, en relación con sus jugadores, con su equipo de técnico para facilitar la mejora en el entrenamiento y la eficacia en la competición. Para el diseño de este trabajo se ha planteado recoger información sobre determinados parámetros determinantes de la intervención del entrenador deportivo; posteriormente se pasa al análisis de cuatro de los mejores entrenadores actualmente en activo. No ha sido fácil encontrar documentación relativa al comportamiento del entrenador tanto en el entrenamiento como en la competición, pero la que se ha utilizado ha sido interesante. Para el análisis de estos técnicos, además, se ha podido disponer gracias a internet de otros recursos más dinámicos (entrevistas, vídeo) lo que facilitó un mayor conocimiento de ellos de su forma de trabajar. Los resultados obtenidos indican las distancias y proximidades entre los distintos entrenadores lo que ayuda a comprender que un equipo se enfrenta a otro equipo, no se enfrenta al tiempo o al espacio en busca de una marca, y la preparación del equipo permite al técnico una gran libertad en la selección de contenidos. Es importante que cada persona incorpore a su reflexión los aspectos que se tratan en el trabajo y posteriormente obtenga sus propias conclusiones, puesto que los entrenadores analizados tienen diferentes características, maneras de trabajar distintas y todas, como han demostrado, pueden ser válidas.
Resumo:
Durante décadas y aun en la actualidad muchas organizaciones, a nivel mundial, continúan afrontando pérdidas significativas debido a fracasos parciales y totales respecto a sus inversiones en sistemas de información (SI), planteando serios retos a los niveles gerenciales y los profesionales de SI. Estadísticas alarmantes y décadas de experiencia en la praxis en el área de SI en diversas organizaciones llevan al autor a poner el énfasis en los usuarios finales internos (UF) que son designados como representantes (UFR) de sus pares en los proyectos de desarrollo de SI (PDSI) por considerarlos como factores influyentes de manera significativa en el problema. Particularmente, con enfoque en ciertos factores de los UFR críticos para el éxito de los PDSI, con dimensiones analizadas de forma aislada o incompleta en otros estudios empíricos, a la fecha. No se encontraron estudios en Latinoamérica ni en otras latitudes que abordasen el fenómeno del éxito/fracaso de los SI desde el punto de vista adoptado en esta tesis. Por ello, esta investigación empírica ha evaluado en qué grado estos factores pudiesen influenciar los resultados durante el desarrollo e implementación de SI y su posible impacto en la satisfacción de los UF, siendo esta última aceptada por variados autores como la principal medida del éxito de los SI. Este estudio fue realizado en América Latina en las cuatro grandes empresas industriales que integran verticalmente el sector aluminio de Venezuela, sometidas a un macro PDSI para instalar el paquete, de tipo ERP, SAP/R3. Experimentados profesionales fueron encuestados o entrevistados, tales como altos ejecutivos, desarrolladores, líderes de proyecto y líderes de los UF. Un enfoque metodológico de triangulación permitió combinar un análisis cuantitativo con un análisis cualitativo interpretativo del tipo hermenéutico/dialéctico, hallándose resultados convergentes y complementarios. Un análisis estadístico, utilizando Partial Least Squares (PLS), seguido de un análisis hermenéutico/dialéctico. Los resultados confirmaron un hecho importante: en los casos problemáticos, paradójicamente, los orígenes de las razones de rechazo de esos SI argumentadas por los UF, en alto grado, apuntaron a los UFR o a ellos mismos. Los resultados también confirmaron la prevalencia de factores de orden cognitivo, conductual y político en estas organizaciones sobre los tecnológicos, al igual que el alto riesgo de dar por sentado la presencia y calidad de los factores requeridos de los UFR y de los otros factores estudiados. La validación estadística del modelo propuesto reveló al constructo conocimientos de los UFR como la principal variable latente, con los variables indicadoras que componen este constructo ejerciendo la mayor influencia sobre la calidad y el éxito de los SI. Un hallazgo contrario al de otros estudios, mostró que los conocimientos sobre las tecnologías de la información (TI) fueron los menos relevantes. Los SI de nómina y de administración de los RRHH fueron los más problemáticos, como suele ser el caso, por su complejidad en organizaciones grandes. Las conclusiones principales confirman el decisivo rol de los UF para el éxito de los PDSI y su relación con la creciente problemática planteada, la cual amerita más investigación y de las organizaciones una mayor atención y preparación. Descuidar los factores humanos y sociales así como una efectiva planificación y gestión de los mismos en preparación para estos proyectos origina serios riesgos. No obstante las limitaciones de este trabajo, la problemática analizada suele influir en los PDSI en diversas organizaciones, indistintamente de su tamaño o tipo de SI, estimándose, por tanto, que los resultados, conclusiones y recomendaciones de esta investigación tienen un alto grado de generalización. Una relación de indicadores claves es suministrada con fines preventivos. Finalmente, los factores evaluados pueden usarse para ampliar el modelo reconocido de DeLone y McLean (2003), conectándolos como variables latentes de sus variables independientes calidad de la información y calidad del SI. ABSTRACT For decades, many organizations worldwide have been enduring heavy losses due to partial and total failures regarding their investments in information systems (IS), posing serious challenges to all management levels and IS practitioners. Alarming statistics in this regard and decades of practice in the IS area lead the author to place an emphasis on the end users (EU) who are appointed in representation of their peers (EUR) to IS development projects (ISDP), considering them as highly influential factors on the problem. Especially, focusing on certain EUR success factors, and their dimensions, deemed critical to any IS development and implementation, omitted or not thoroughly analyzed neither in the theory nor in the empirical research on the subject, so far. No studies were found in Latin America or elsewhere addressing the phenomenon of IS success/failure from the perspective presented herein. Hence, this empirical research has assessed to what degree such factors can influence the outcomes of an ISDP and their feasible impact on the EU´s satisfaction, being the latter accepted by several authors as the main measure of IS success. This study was performed in Latin America embracing four major industrial enterprises, which vertically integrate the aluminum sector of Venezuela, subjected to a macro ISDP to install the ERP-type package SAP/R3. The field work included surveying and interviewing experienced professionals such as IS executives, IS developers, IS project leaders and end-user project leaders. A triangulation methodological approach allowed combining quantitative and interpretive analyses, obtaining convergent and complementing results. A statistical analysis, using Partial Least Squares (PLS), was carried out followed by a hermeneutical/dialectical analysis. Results confirmed a major finding: in problematic cases, paradoxically, the origins of IS rejection reasons argued by the EU, at a high degree, were usually traceable to the EUR and themselves. The results also confirmed the prevalence of cognitive, behavioral and political factors in these organizations as well as the high risk of taking for granted the presence and quality of those factors demanded from the EUR. The statistical validation of the proposed model revealed the construct EUR knowledge as the main latent variable, with its items exerting a major influence on IS quality and success. Another finding, in contradiction with that of other studies, proved knowledge of information technology (IT) aspects to be irrelevant. The payroll and the human resources administration IS were the most problematic, as is usually the case in large companies. The main conclusions confirm the EU´s decisive role for IS success and their relationship with the problem, which continues, demanding more research and, from organizations, more attention and preparation. Neglecting human and social factors in organizations as well as their effective planning and management in preparation for ISDP poses serious risks. Despite the limitations of this work, the analyzed problem tends to influence ISDP in a wide range of organizations; regardless of their size or type of IS, thus showing a high degree of generalization. Therefore it is believed that the results, conclusions and suggestions of this research have a high degree of generalization. A detailed checklist comprising key measures is provided for preventive actions. Finally, the factors evaluated can be used to expand the well-known model of DeLone & McLean (2003), by connecting them as latent variables of its independent variables information quality and IS quality.
Resumo:
Si bien es verdad que existen algunos problemas de electricidad, donde las corrientes alternas no presentan satisfactorias soluciones y son posibles de emplear únicamente las continuas; por regla general los medios con que actualmente unas y otras cuentan, son tan comparables y tan iguales las ventajas e inconvenientes totales que en cada caso presenta sus uso que, ya que no imposible,es difícil tarea para el ingeniero adoptar razonadamente uno u otro sistema y sólo un detenido estudio del caso que ha de resolver pueden ayudarle en tan delicado asunto.
Resumo:
La evaluación de consumo y emisiones de los vehículos se puede realizar mediante medidas en ciclos estándar o por medidas en operación real. La primera opción presenta la ventaja de la repetibilidad, pero debe asegurarse que el ciclo representa correctamente las condiciones operativas. Además, algunos tipos de vehículos presentan ciclos cinemáticos muy característicos. Este es el caso de los autobuses urbanos o vehículos de recogida de residuos. En concreto, en el primer caso, existen ciclos desarrollados a partir de medidas en diferentes ciudades. Sin embargo, estos ciclos se basan únicamente en una muestra limitada de líneas y consideran que todas las líneas tienen características semejantes. Este enfoque impide, por ejemplo, probar autobuses sobre líneas de propiedades diferentes con el fin de decidir cual es la distribución óptima de la flota en cuanto a ahorro de consumo y reducción de emisiones, ya que ciertas tecnologías pueden trabajar significativamente mejor que otras con unos parámetros de conducción. Este artículo presenta una metodología para la construcción de los ciclos de conducción estándar de estos vehículos. Para ello, primero, se realiza una agrupación preliminar de las líneas en conglomerados en función de variables macroscópicas. A continuación, se realiza la medición de ciclos cinemáticos en una selección representativa de líneas a lo largo de días completos de operación mediante un dispositivo no intrusivo embarcado en los vehículos. Estos datos cinemáticos han sido analizados diferenciando microciclos y estudiando sus características, como tipología de microciclo, velocidades máximas y medias, duraciones totales, niveles de aceleración y deceleración, etc. A partir del estudio estadístico de dichas variables se han planteado algoritmos para redefinir los algoritmos que permiten la formación de conglomerados de líneas con características semejantes. Finalmente, a partir de las conclusiones del paso anterior, se han construido ciclos estándar para cada uno de los conglomerados de líneas que reproducen las propiedades fundamentales de los ciclos reales.
Resumo:
La Escuela Técnica Superior de Ingenieros de Minas de Madrid es un centro de la Universidad Politécnica de Madrid que, por su antigüedad, ha conservado un valioso patrimonio científico y cultural, que hoy se agrupa en el Museo Histórico Minero Don Felipe de Borbón y Grecia, perteneciente a dicha Escuela. Aunque tal vez poco conocidos del público, son especialmente ricos los conjuntos de minerales, fósiles, libros antiguos, conchas, instrumentos ópticos, eléctricos, mecánicos, químicos, de medida y control, etc. Todos estos elementos se usaron durante los últimos doscientos años en la enseñanza de la ingeniería a las sucesivas promociones de estudiantes que, desde 1777, llenan nuestras aulas. Se han perdido muchos, porque el tiempo y la falta de sensibilidad por lo antiguo han hecho bastante daño, pero aún puede decirse que la colección es una de las mejores de España y merece conocimiento, respeto y cuidado. Dentro de esta valiosa colección merece destacarse el conjunto de instrumentos topográficos. Se fueron acumulando éstos por los sucesivos profesores para las clases y la investigación. Mi memoria alcanza hasta los años 70 del pasado siglo, en los que el profesor de Topografía y Astronomía, D. Pedro Arsuaga Dabán, mostraba con orgullo su magnífica colección de teodolitos, niveles, brújulas, astrolabios y miras. Posteriormente, el catedrático de la asignatura, D. Ángel Valverde, llevó a cabo una excelente labor de conservación, durante muchos años, de todo aquel instrumental. Gracias a él, y a los profesores que le sucedieron, hemos “reencontrado” hace algún tiempo el conjunto de instrumentos que hoy se presenta en este libro. También ha tenido la Escuela la fortuna de contar con un profesor, D. Emilio de la Heras, que une a su profundo conocimiento de la Topografía y de su historia un notable afán divulgador, una forma de expresión clara y asequible y la infinita paciencia que hace falta para analizar uno a uno todos los instrumentos, reparar algunos, buscar en todos los datos esenciales de su fecha de fabricación, procedencia y uso, leer las actas y documentos antiguos de la Escuela para averiguar las fechas de adquisición y, en suma, recopilar la infinitud de datos que hacen este libro posible. El libro es mucho más que un mero catálogo. Es también una interesante historia de la Topografía, fácil de entender y enormemente ilustrativa, y una historia de la enseñanza de esta asignatura en la Escuela. Desde sus inicios, la medición de distancias y ángulos se mostró esencial en las labores mineras, agravada por la dificultad de que muchas de estas labores eran y son subterráneas. Ello dio lugar a que el ingenio minero crease instrumentos específicos, que Emilio de las Heras tan bien explica, y a que la Topografía fuese siempre asignatura esencial en la formación de los ingenieros de minas. Con la publicación de este libro, la Escuela pretende seguir la iniciativa, que ya tiene muchos años, de dar a conocer, por partes, su patrimonio histórico, cultural y científico. También establecer un catálogo, tan completo como sea posible, de los instrumentos antiguos o curiosos que constituyen dicho patrimonio. Por último, llevar al conocimiento del público en general algunos aspectos de la enseñanza de la minería, hoy poco conocida y valorada, aunque sea la base del suministro de las materias primas que todos necesitamos y empleamos diariamente. Agradecemos sinceramente al profesor Emilio de las Heras su esforzada y desinteresada labor, su incansable paciencia, su erudición profunda, puestas todas al servicio de la Escuela. Auguramos para el libro, que es ameno y muy documentado, un gran éxito entre todas las personas curiosas, con una mínima sensibilidad humanística, o simplemente interesadas por el desarrollo científico. Nos felicitamos, por fin, de que la Escuela cuente, en soporte de papel, un nuevo catálogo de los bienes que forman su patrimonio. La publicación de libros como éste es, sin duda, un elemento que contribuye a la conservación de dicho patrimonio.
Resumo:
En entornos hostiles tales como aquellas instalaciones científicas donde la radiación ionizante es el principal peligro, el hecho de reducir las intervenciones humanas mediante el incremento de las operaciones robotizadas está siendo cada vez más de especial interés. CERN, la Organización Europea para la Investigación Nuclear, tiene alrededor de unos 50 km de superficie subterránea donde robots móviles controlador de forma remota podrían ayudar en su funcionamiento, por ejemplo, a la hora de llevar a cabo inspecciones remotas sobre radiación en los diferentes áreas destinados al efecto. No solo es preciso considerar que los robots deben ser capaces de recorrer largas distancias y operar durante largos periodos de tiempo, sino que deben saber desenvolverse en los correspondientes túneles subterráneos, tener en cuenta la presencia de campos electromagnéticos, radiación ionizante, etc. y finalmente, el hecho de que los robots no deben interrumpir el funcionamiento de los aceleradores. El hecho de disponer de un sistema de comunicaciones inalámbrico fiable y robusto es esencial para la correcta ejecución de las misiones que los robots deben afrontar y por supuesto, para evitar tales situaciones en las que es necesario la recuperación manual de los robots al agotarse su energía o al perder el enlace de comunicaciones. El objetivo de esta Tesis es proveer de las directrices y los medios necesarios para reducir el riesgo de fallo en la misión y maximizar las capacidades de los robots móviles inalámbricos los cuales disponen de almacenamiento finito de energía al trabajar en entornos peligrosos donde no se dispone de línea de vista directa. Para ello se proponen y muestran diferentes estrategias y métodos de comunicación inalámbrica. Teniendo esto en cuenta, se presentan a continuación los objetivos de investigación a seguir a lo largo de la Tesis: predecir la cobertura de comunicaciones antes y durante las misiones robotizadas; optimizar la capacidad de red inalámbrica de los robots móviles con respecto a su posición; y mejorar el rango operacional de esta clase de robots. Por su parte, las contribuciones a la Tesis se citan más abajo. El primer conjunto de contribuciones son métodos novedosos para predecir el consumo de energía y la autonomía en la comunicación antes y después de disponer de los robots en el entorno seleccionado. Esto es importante para proporcionar conciencia de la situación del robot y evitar fallos en la misión. El consumo de energía se predice usando una estrategia propuesta la cual usa modelos de consumo provenientes de diferentes componentes en un robot. La predicción para la cobertura de comunicaciones se desarrolla usando un nuevo filtro de RSS (Radio Signal Strength) y técnicas de estimación con la ayuda de Filtros de Kalman. El segundo conjunto de contribuciones son métodos para optimizar el rango de comunicaciones usando novedosas técnicas basadas en muestreo espacial que son robustas frente a ruidos de campos de detección y radio y que proporcionan redundancia. Se emplean métodos de diferencia central finitos para determinar los gradientes 2D RSS y se usa la movilidad del robot para optimizar el rango de comunicaciones y la capacidad de red. Este método también se valida con un caso de estudio centrado en la teleoperación háptica de robots móviles inalámbricos. La tercera contribución es un algoritmo robusto y estocástico descentralizado para la optimización de la posición al considerar múltiples robots autónomos usados principalmente para extender el rango de comunicaciones desde la estación de control al robot que está desarrollando la tarea. Todos los métodos y algoritmos propuestos se verifican y validan usando simulaciones y experimentos de campo con variedad de robots móviles disponibles en CERN. En resumen, esta Tesis ofrece métodos novedosos y demuestra su uso para: predecir RSS; optimizar la posición del robot; extender el rango de las comunicaciones inalámbricas; y mejorar las capacidades de red de los robots móviles inalámbricos para su uso en aplicaciones dentro de entornos peligrosos, que como ya se mencionó anteriormente, se destacan las instalaciones científicas con emisión de radiación ionizante. En otros términos, se ha desarrollado un conjunto de herramientas para mejorar, facilitar y hacer más seguras las misiones de los robots en entornos hostiles. Esta Tesis demuestra tanto en teoría como en práctica que los robots móviles pueden mejorar la calidad de las comunicaciones inalámbricas mediante la profundización en el estudio de su movilidad para optimizar dinámicamente sus posiciones y mantener conectividad incluso cuando no existe línea de vista. Los métodos desarrollados en la Tesis son especialmente adecuados para su fácil integración en robots móviles y pueden ser aplicados directamente en la capa de aplicación de la red inalámbrica. ABSTRACT In hostile environments such as in scientific facilities where ionising radiation is a dominant hazard, reducing human interventions by increasing robotic operations are desirable. CERN, the European Organization for Nuclear Research, has around 50 km of underground scientific facilities, where wireless mobile robots could help in the operation of the accelerator complex, e.g. in conducting remote inspections and radiation surveys in different areas. The main challenges to be considered here are not only that the robots should be able to go over long distances and operate for relatively long periods, but also the underground tunnel environment, the possible presence of electromagnetic fields, radiation effects, and the fact that the robots shall in no way interrupt the operation of the accelerators. Having a reliable and robust wireless communication system is essential for successful execution of such robotic missions and to avoid situations of manual recovery of the robots in the event that the robot runs out of energy or when the robot loses its communication link. The goal of this thesis is to provide means to reduce risk of mission failure and maximise mission capabilities of wireless mobile robots with finite energy storage capacity working in a radiation environment with non-line-of-sight (NLOS) communications by employing enhanced wireless communication methods. Towards this goal, the following research objectives are addressed in this thesis: predict the communication range before and during robotic missions; optimise and enhance wireless communication qualities of mobile robots by using robot mobility and employing multi-robot network. This thesis provides introductory information on the infrastructures where mobile robots will need to operate, the tasks to be carried out by mobile robots and the problems encountered in these environments. The reporting of research work carried out to improve wireless communication comprises an introduction to the relevant radio signal propagation theory and technology followed by explanation of the research in the following stages: An analysis of the wireless communication requirements for mobile robot for different tasks in a selection of CERN facilities; predictions of energy and communication autonomies (in terms of distance and time) to reduce risk of energy and communication related failures during missions; autonomous navigation of a mobile robot to find zone(s) of maximum radio signal strength to improve communication coverage area; and autonomous navigation of one or more mobile robots acting as mobile wireless relay (repeater) points in order to provide a tethered wireless connection to a teleoperated mobile robot carrying out inspection or radiation monitoring activities in a challenging radio environment. The specific contributions of this thesis are outlined below. The first sets of contributions are novel methods for predicting the energy autonomy and communication range(s) before and after deployment of the mobile robots in the intended environments. This is important in order to provide situational awareness and avoid mission failures. The energy consumption is predicted by using power consumption models of different components in a mobile robot. This energy prediction model will pave the way for choosing energy-efficient wireless communication strategies. The communication range prediction is performed using radio signal propagation models and applies radio signal strength (RSS) filtering and estimation techniques with the help of Kalman filters and Gaussian process models. The second set of contributions are methods to optimise the wireless communication qualities by using novel spatial sampling based techniques that are robust to sensing and radio field noises and provide redundancy features. Central finite difference (CFD) methods are employed to determine the 2-D RSS gradients and use robot mobility to optimise the communication quality and the network throughput. This method is also validated with a case study application involving superior haptic teleoperation of wireless mobile robots where an operator from a remote location can smoothly navigate a mobile robot in an environment with low-wireless signals. The third contribution is a robust stochastic position optimisation algorithm for multiple autonomous relay robots which are used for wireless tethering of radio signals and thereby to enhance the wireless communication qualities. All the proposed methods and algorithms are verified and validated using simulations and field experiments with a variety of mobile robots available at CERN. In summary, this thesis offers novel methods and demonstrates their use to predict energy autonomy and wireless communication range, optimise robots position to improve communication quality and enhance communication range and wireless network qualities of mobile robots for use in applications in hostile environmental characteristics such as scientific facilities emitting ionising radiations. In simpler terms, a set of tools are developed in this thesis for improving, easing and making safer robotic missions in hostile environments. This thesis validates both in theory and experiments that mobile robots can improve wireless communication quality by exploiting robots mobility to dynamically optimise their positions and maintain connectivity even when the (radio signal) environment possess non-line-of-sight characteristics. The methods developed in this thesis are well-suited for easier integration in mobile robots and can be applied directly at the application layer of the wireless network. The results of the proposed methods have outperformed other comparable state-of-the-art methods.
Resumo:
El principal objetivo del presente trabajo de investigación fue determinar las diferencias en distintas variables relacionadas con el rendimiento físico entre atletas de distinto nivel durante la prueba de los 60 metros vallas. Un total de 59 vallistas masculinos (los 31 participantes en el Campeonato del Mundo Absoluto de Pista Cubierta y los 28 participantes en el Campeonato de España Absoluto de Pista Cubierta, ambos celebrados en Valencia en el año 2008) formaron la muestra del estudio. El análisis biomecánico se realizó mediante un sistema fotogramétrico en dos dimensiones que permitió calcular, aplicando algoritmos basados en el procedimiento de la DLT (Abdel-Aziz y Karara, 1971), las coordenadas (x, y) de los sucesivos apoyos de los pies de los atletas sobre toda la superficie de competición. La filmación de las pruebas se llevó a cabo con seis cámaras de vídeo, ubicadas sobre la gradas, con una frecuencia de muestreo para el tratamiento de los datos de 50 Hz. En la fase de salida, los atletas de nivel superior mostraron una menor longitud (p<0,05) y tiempo de zancada (p<0,001), debido a un menor tiempo de vuelo (p<0,05). En la fase de vallas, los atletas de nivel más elevado presentaron mayores distancia de ataque a la valla (p<0,001), así como menores distancias de caída de la valla (p<0,001), tiempos de zancada (p<0,01-0,001) y de apoyo (p<0,01-0,001 ) en los cuatro pasos que conforman cada ciclo de vallas, así como un menor tiempo de vuelo en el paso de valla (p<0,001) y en el paso de transición (p<0,001). De manera adicional, se encontraron importantes diferencias en el reparto de los pasos entre vallas entre la primera y tercera valla y el resto de obstáculos. En la fase final, se observó una mayor longitud de zancada en los atletas de nivel superior (p<0,001), así como un menor tiempo de zancada (p<0,01) y de apoyo (p<0,01). Los resultados obtenidos en el presente estudio de investigación avalan la utilización de la fotogrametría en dos dimensiones para el análisis biomecánico de la prueba de 60 metros vallas en competición. Su aplicación en competiciones del máximo nivel internacional ha posibilitado conocer las características de los vallistas a lo largo de toda la prueba y determinar posibles implicaciones de cara al proceso de entrenamiento. ABSTRACT The aim of this research was to determine the differences in different variables related to physical performance among athletes of different levels during the race of 60 meter hurdles. A total of 59 male hurdlers (the 31 participants in the World Indoor Championship and the 28 participants in the Spanish Indoor Championship, both held in Valencia in 2008) formed the sample of the study. The biomechanical analysis of athletes was performed using a two-dimensional photogrammetric system which enabled calculation, applying algorithms based on the DLT method (Abdel -Aziz y Karara , 1971), the coordinates (x , y) of the successive supports of the feet on the entire competition surface. Filming test was conducted with six video cameras, located on the bleachers, with a sampling frequency for data processing of 50 Hz. In the approach run phase, the top-level athletes showed a smaller length step (p<0.05), and shorter step time (p<0.001), due to a shorter step flight time (p<0.05). In the hurdle unit phase, the higher level athletes had greater take-off distances (p<0.001), shorter landing distances (p<0.001), smaller step times (p<0.01-0.001), and support times (p<0.01- 0.001) in the four steps that comprised each hurdle unit, and smaller flight times in the hurdle step (p < 0.001), and the recovery step (p<0.001). Additionally, differences in the distribution of hurdle unit steps between the first and third hurdle, and other hurdles were found. In the run-in phase, a greater step length in top-level athletes (p<0.001), and a shorter step time (p<0.01) and contact time (p<0.01) was observed. The results obtained in this study support the use of photogrammetry in two dimensions for biomechanical analysis in 60 meter hurdles competition events. Its application at the highest international level competitions has allowed to know the characteristics of the hurdlers over the entire race and identify possible implications for the training process.
Resumo:
El estudio desarrollado en este trabajo de tesis se centra en la modelización numérica de la fase de propagación de los deslizamientos rápidos de ladera a través del método sin malla Smoothed Particle Hydrodynamics (SPH). Este método tiene la gran ventaja de permitir el análisis de problemas de grandes deformaciones evitando operaciones costosas de remallado como en el caso de métodos numéricos con mallas tal como el método de los Elementos Finitos. En esta tesis, particular atención viene dada al rol que la reología y la presión de poros desempeñan durante estos eventos. El modelo matemático utilizado se basa en la formulación de Biot-Zienkiewicz v - pw, que representa el comportamiento, expresado en términos de velocidad del esqueleto sólido y presiones de poros, de la mezcla de partículas sólidas en un medio saturado. Las ecuaciones que gobiernan el problema son: • la ecuación de balance de masa de la fase del fluido intersticial, • la ecuación de balance de momento de la fase del fluido intersticial y de la mezcla, • la ecuación constitutiva y • una ecuación cinemática. Debido a sus propiedades geométricas, los deslizamientos de ladera se caracterizan por tener una profundidad muy pequeña frente a su longitud y a su anchura, y, consecuentemente, el modelo matemático mencionado anteriormente se puede simplificar integrando en profundidad las ecuaciones, pasando de un modelo 3D a 2D, el cual presenta una combinación excelente de precisión, sencillez y costes computacionales. El modelo propuesto en este trabajo se diferencia de los modelos integrados en profundidad existentes por incorporar un ulterior modelo capaz de proveer información sobre la presión del fluido intersticial a cada paso computacional de la propagación del deslizamiento. En una manera muy eficaz, la evolución de los perfiles de la presión de poros está numéricamente resuelta a través de un esquema explicito de Diferencias Finitas a cada nodo SPH. Este nuevo enfoque es capaz de tener en cuenta la variación de presión de poros debida a cambios de altura, de consolidación vertical o de cambios en las tensiones totales. Con respecto al comportamiento constitutivo, uno de los problemas principales al modelizar numéricamente deslizamientos rápidos de ladera está en la dificultad de simular con la misma ley constitutiva o reológica la transición de la fase de iniciación, donde el material se comporta como un sólido, a la fase de propagación donde el material se comporta como un fluido. En este trabajo de tesis, se propone un nuevo modelo reológico basado en el modelo viscoplástico de Perzyna, pensando a la viscoplasticidad como a la llave para poder simular tanto la fase de iniciación como la de propagación con el mismo modelo constitutivo. Con el fin de validar el modelo matemático y numérico se reproducen tanto ejemplos de referencia con solución analítica como experimentos de laboratorio. Finalmente, el modelo se aplica a casos reales, con especial atención al caso del deslizamiento de 1966 en Aberfan, mostrando como los resultados obtenidos simulan con éxito estos tipos de riesgos naturales. The study developed in this thesis focuses on the modelling of landslides propagation with the Smoothed Particle Hydrodynamics (SPH) meshless method which has the great advantage of allowing to deal with large deformation problems by avoiding expensive remeshing operations as happens for mesh methods such as, for example, the Finite Element Method. In this thesis, special attention is given to the role played by rheology and pore water pressure during these natural hazards. The mathematical framework used is based on the v - pw Biot-Zienkiewicz formulation, which represents the behaviour, formulated in terms of soil skeleton velocity and pore water pressure, of the mixture of solid particles and pore water in a saturated media. The governing equations are: • the mass balance equation for the pore water phase, • the momentum balance equation for the pore water phase and the mixture, • the constitutive equation and • a kinematic equation. Landslides, due to their shape and geometrical properties, have small depths in comparison with their length or width, therefore, the mathematical model aforementioned can then be simplified by depth integrating the equations, switching from a 3D to a 2D model, which presents an excellent combination of accuracy, computational costs and simplicity. The proposed model differs from previous depth integrated models by including a sub-model able to provide information on pore water pressure profiles at each computational step of the landslide's propagation. In an effective way, the evolution of the pore water pressure profiles is numerically solved through a set of 1D Finite Differences explicit scheme at each SPH node. This new approach is able to take into account the variation of the pore water pressure due to changes of height, vertical consolidation or changes of total stress. Concerning the constitutive behaviour, one of the main issues when modelling fast landslides is the difficulty to simulate with the same constitutive or rheological model the transition from the triggering phase, where the landslide behaves like a solid, to the propagation phase, where the landslide behaves in a fluid-like manner. In this work thesis, a new rheological model is proposed, based on the Perzyna viscoplastic model, thinking of viscoplasticity as the key to close the gap between the triggering and the propagation phase. In order to validate the mathematical model and the numerical approach, benchmarks and laboratory experiments are reproduced and compared to analytical solutions when possible. Finally, applications to real cases are studied, with particular attention paid to the Aberfan flowslide of 1966, showing how the mathematical model accurately and successfully simulate these kind of natural hazards.