780 resultados para Esclavos negros


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sociedad bonaerense del período independiente temprano, no sólo se caracterizó por estar fuertementejerarquizada desde el punto de vista socioeconómico, sinoademás por ser legalmente desigual y altamente punitiva. Los hechos asentados en los expedientes judiciales correspondientes a causas criminales y correccionales presentadas ante el Juzgado del Crimen, muestran claramente -entre otros aspectos- las características de la justicia criminal hispanocriolla: cómo operaba y se administraba la ley vigente, frente a la cual, los sectores bajos de la pirámide social y en particular, los individuos de casta (indios, negros, morenos, etc.), resultaban ser los más desprotegidos y vulnerables. Por lo tanto, en el presente proyecto, nos interesa abordar la inserción social del indígena en las urbes y campañas, y su integración en el mercado laboral de la época, y a partir de este marco y desde esa sociedad que lo incluía, se pretende indagar alindígena frente al delito y dentro de la dinámica del campo judicial, articulando las dimensiones social, económica y jurídica. De esta manera, combinando las fuentes judiciales de 1810 a 1835 con otros documentos del período, se intenta dar cuenta no sólo de los aspectos sociales y económicos de la vida personal y cotidiana del indígena sino además de las particularidades del proceso de juzgamiento y penalización de sus acciones durante el incipiente período independentista.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La "Oración política moral para la aprobación, establecimiento e instalación de la humilde sociedad de negros congos de Gunga de Montevideo" es un discurso que parece estructurarse según modelos clásicos de oratoria y sin embargo, presenta algunas particularidades que lo alejan de estos. Su autor, Jacinto Ventura de Molina, recibió una educación entonces vedada a los afrodescendientes y este excepcional carácter de su formación se refleja, junto a algunos detalles relativos a su aprehensión de la cultura clásica, en el texto que nos proponemos analizar

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los Hechos apócrifos de los apóstoles nos hablan de la transición entre el siglo II y el siglo III en las comunidades cristianas. Nuestro objetivo será analizar el rol de los esclavos y de la categoría de esclavitud en los dos Hechos apócrifos provenientes de Asia Menor: los Hechos de Pedro y los Hechos de Pablo. Luego realizaremos una comparación de posturas particulares a fin de inscribirlas y analizarlas a la luz de los procesos históricos que atravesaban las iglesias en ese momento

Relevância:

10.00% 10.00%

Publicador:

Resumo:

During Leg 124, off the Philippines, volcanic material was recovered in deep-sea sediments dating from the late Oligocene in the Celebes Sea Basin, and from the early Miocene in the Sulu Sea Basin. Chemical and petrological studies of fallout ash deposits are used to characterize volcanic pulses and to determine their possible origin. All of the glass and mineral compositions belong to medium-K and high-K calc-alkaline arc-related magmatic suites including high-Al basalts, pyroxene-hornblende andesites, dacites, and rhyolites. Late Oligocene and early Miocene products may have originated from the Sunda arc or from the Sabah-Zamboanga old Sulu arc. Late early Miocene Sulu Sea tuffs originated from the Cagayan arc, whereas early late Miocene fallout ashes are attributed to the Sulu arc. A complex magmatic production is distinguished in the Plio-Quaternary with three sequences of basic to acidic lava suites. Early Pliocene strata registered an important activity in both Celebes Sea and Sulu Sea areas, from the newly born Sangihe arc (low-alumina andesite series) and from the Sulu, Zamboanga, and Negros arcs (high-alumina basalt series and high-K andesite series). In the late Pliocene and the early Pleistocene, renewal of activity affects the Sangihe-Cotobato arc as well as the Sulu and Negros arcs (same magmatic distinctions). The last volcanic pulse took place in the late Pleistocene with revival of all the present arc systems.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Project you are about to see it is based on the technologies used on object detection and recognition, especially on leaves and chromosomes. To do so, this document contains the typical parts of a scientific paper, as it is what it is. It is composed by an Abstract, an Introduction, points that have to do with the investigation area, future work, conclusions and references used for the elaboration of the document. The Abstract talks about what are we going to find in this paper, which is technologies employed on pattern detection and recognition for leaves and chromosomes and the jobs that are already made for cataloguing these objects. In the introduction detection and recognition meanings are explained. This is necessary as many papers get confused with these terms, specially the ones talking about chromosomes. Detecting an object is gathering the parts of the image that are useful and eliminating the useless parts. Summarizing, detection would be recognizing the objects borders. When talking about recognition, we are talking about the computers or the machines process, which says what kind of object we are handling. Afterwards we face a compilation of the most used technologies in object detection in general. There are two main groups on this category: Based on derivatives of images and based on ASIFT points. The ones that are based on derivatives of images have in common that convolving them with a previously created matrix does the treatment of them. This is done for detecting borders on the images, which are changes on the intensity of the pixels. Within these technologies we face two groups: Gradian based, which search for maximums and minimums on the pixels intensity as they only use the first derivative. The Laplacian based methods search for zeros on the pixels intensity as they use the second derivative. Depending on the level of details that we want to use on the final result, we will choose one option or the other, because, as its logic, if we used Gradian based methods, the computer will consume less resources and less time as there are less operations, but the quality will be worse. On the other hand, if we use the Laplacian based methods we will need more time and resources as they require more operations, but we will have a much better quality result. After explaining all the derivative based methods, we take a look on the different algorithms that are available for both groups. The other big group of technologies for object recognition is the one based on ASIFT points, which are based on 6 image parameters and compare them with another image taking under consideration these parameters. These methods disadvantage, for our future purposes, is that it is only valid for one single object. So if we are going to recognize two different leaves, even though if they refer to the same specie, we are not going to be able to recognize them with this method. It is important to mention these types of technologies as we are talking about recognition methods in general. At the end of the chapter we can see a comparison with pros and cons of all technologies that are employed. Firstly comparing them separately and then comparing them all together, based on our purposes. Recognition techniques, which are the next chapter, are not really vast as, even though there are general steps for doing object recognition, every single object that has to be recognized has its own method as the are different. This is why there is not a general method that we can specify on this chapter. We now move on into leaf detection techniques on computers. Now we will use the technique explained above based on the image derivatives. Next step will be to turn the leaf into several parameters. Depending on the document that you are referring to, there will be more or less parameters. Some papers recommend to divide the leaf into 3 main features (shape, dent and vein] and doing mathematical operations with them we can get up to 16 secondary features. Next proposition is dividing the leaf into 5 main features (Diameter, physiological length, physiological width, area and perimeter] and from those, extract 12 secondary features. This second alternative is the most used so it is the one that is going to be the reference. Following in to leaf recognition, we are based on a paper that provides a source code that, clicking on both leaf ends, it automatically tells to which specie belongs the leaf that we are trying to recognize. To do so, it only requires having a database. On the tests that have been made by the document, they assure us a 90.312% of accuracy over 320 total tests (32 plants on the database and 10 tests per specie]. Next chapter talks about chromosome detection, where we shall pass the metaphasis plate, where the chromosomes are disorganized, into the karyotype plate, which is the usual view of the 23 chromosomes ordered by number. There are two types of techniques to do this step: the skeletonization process and swiping angles. Skeletonization progress consists on suppressing the inside pixels of the chromosome to just stay with the silhouette. This method is really similar to the ones based on the derivatives of the image but the difference is that it doesnt detect the borders but the interior of the chromosome. Second technique consists of swiping angles from the beginning of the chromosome and, taking under consideration, that on a single chromosome we cannot have more than an X angle, it detects the various regions of the chromosomes. Once the karyotype plate is defined, we continue with chromosome recognition. To do so, there is a technique based on the banding that chromosomes have (grey scale bands] that make them unique. The program then detects the longitudinal axis of the chromosome and reconstructs the band profiles. Then the computer is able to recognize this chromosome. Concerning the future work, we generally have to independent techniques that dont reunite detection and recognition, so our main focus would be to prepare a program that gathers both techniques. On the leaf matter we have seen that, detection and recognition, have a link as both share the option of dividing the leaf into 5 main features. The work that would have to be done is to create an algorithm that linked both methods, as in the program, which recognizes leaves, it has to be clicked both leaf ends so it is not an automatic algorithm. On the chromosome side, we should create an algorithm that searches for the beginning of the chromosome and then start to swipe angles, to later give the parameters to the program that searches for the band profiles. Finally, on the summary, we explain why this type of investigation is needed, and that is because with global warming, lots of species (animals and plants] are beginning to extinguish. That is the reason why a big database, which gathers all the possible species, is needed. For recognizing animal species, we just only have to have the 23 chromosomes. While recognizing a plant, there are several ways of doing it, but the easiest way to input a computer is to scan the leaf of the plant. RESUMEN. El proyecto que se puede ver a continuación trata sobre las tecnologías empleadas en la detección y reconocimiento de objetos, especialmente de hojas y cromosomas. Para ello, este documento contiene las partes típicas de un paper de investigación, puesto que es de lo que se trata. Así, estará compuesto de Abstract, Introducción, diversos puntos que tengan que ver con el área a investigar, trabajo futuro, conclusiones y biografía utilizada para la realización del documento. Así, el Abstract nos cuenta qué vamos a poder encontrar en este paper, que no es ni más ni menos que las tecnologías empleadas en el reconocimiento y detección de patrones en hojas y cromosomas y qué trabajos hay existentes para catalogar a estos objetos. En la introducción se explican los conceptos de qué es la detección y qué es el reconocimiento. Esto es necesario ya que muchos papers científicos, especialmente los que hablan de cromosomas, confunden estos dos términos que no podían ser más sencillos. Por un lado tendríamos la detección del objeto, que sería simplemente coger las partes que nos interesasen de la imagen y eliminar aquellas partes que no nos fueran útiles para un futuro. Resumiendo, sería reconocer los bordes del objeto de estudio. Cuando hablamos de reconocimiento, estamos refiriéndonos al proceso que tiene el ordenador, o la máquina, para decir qué clase de objeto estamos tratando. Seguidamente nos encontramos con un recopilatorio de las tecnologías más utilizadas para la detección de objetos, en general. Aquí nos encontraríamos con dos grandes grupos de tecnologías: Las basadas en las derivadas de imágenes y las basadas en los puntos ASIFT. El grupo de tecnologías basadas en derivadas de imágenes tienen en común que hay que tratar a las imágenes mediante una convolución con una matriz creada previamente. Esto se hace para detectar bordes en las imágenes que son básicamente cambios en la intensidad de los píxeles. Dentro de estas tecnologías nos encontramos con dos grupos: Los basados en gradientes, los cuales buscan máximos y mínimos de intensidad en la imagen puesto que sólo utilizan la primera derivada; y los Laplacianos, los cuales buscan ceros en la intensidad de los píxeles puesto que estos utilizan la segunda derivada de la imagen. Dependiendo del nivel de detalles que queramos utilizar en el resultado final nos decantaremos por un método u otro puesto que, como es lógico, si utilizamos los basados en el gradiente habrá menos operaciones por lo que consumirá más tiempo y recursos pero por la contra tendremos menos calidad de imagen. Y al revés pasa con los Laplacianos, puesto que necesitan más operaciones y recursos pero tendrán un resultado final con mejor calidad. Después de explicar los tipos de operadores que hay, se hace un recorrido explicando los distintos tipos de algoritmos que hay en cada uno de los grupos. El otro gran grupo de tecnologías para el reconocimiento de objetos son los basados en puntos ASIFT, los cuales se basan en 6 parámetros de la imagen y la comparan con otra imagen teniendo en cuenta dichos parámetros. La desventaja de este método, para nuestros propósitos futuros, es que sólo es valido para un objeto en concreto. Por lo que si vamos a reconocer dos hojas diferentes, aunque sean de la misma especie, no vamos a poder reconocerlas mediante este método. Aún así es importante explicar este tipo de tecnologías puesto que estamos hablando de técnicas de reconocimiento en general. Al final del capítulo podremos ver una comparación con los pros y las contras de todas las tecnologías empleadas. Primeramente comparándolas de forma separada y, finalmente, compararemos todos los métodos existentes en base a nuestros propósitos. Las técnicas de reconocimiento, el siguiente apartado, no es muy extenso puesto que, aunque haya pasos generales para el reconocimiento de objetos, cada objeto a reconocer es distinto por lo que no hay un método específico que se pueda generalizar. Pasamos ahora a las técnicas de detección de hojas mediante ordenador. Aquí usaremos la técnica explicada previamente explicada basada en las derivadas de las imágenes. La continuación de este paso sería diseccionar la hoja en diversos parámetros. Dependiendo de la fuente a la que se consulte pueden haber más o menos parámetros. Unos documentos aconsejan dividir la morfología de la hoja en 3 parámetros principales (Forma, Dentina y ramificación] y derivando de dichos parámetros convertirlos a 16 parámetros secundarios. La otra propuesta es dividir la morfología de la hoja en 5 parámetros principales (Diámetro, longitud fisiológica, anchura fisiológica, área y perímetro] y de ahí extraer 12 parámetros secundarios. Esta segunda propuesta es la más utilizada de todas por lo que es la que se utilizará. Pasamos al reconocimiento de hojas, en la cual nos hemos basado en un documento que provee un código fuente que cucando en los dos extremos de la hoja automáticamente nos dice a qué especie pertenece la hoja que estamos intentando reconocer. Para ello sólo hay que formar una base de datos. En los test realizados por el citado documento, nos aseguran que tiene un índice de acierto del 90.312% en 320 test en total (32 plantas insertadas en la base de datos por 10 test que se han realizado por cada una de las especies]. El siguiente apartado trata de la detección de cromosomas, en el cual se debe de pasar de la célula metafásica, donde los cromosomas están desorganizados, al cariotipo, que es como solemos ver los 23 cromosomas de forma ordenada. Hay dos tipos de técnicas para realizar este paso: Por el proceso de esquelotonización y barriendo ángulos. El proceso de esqueletonización consiste en eliminar los píxeles del interior del cromosoma para quedarse con su silueta; Este proceso es similar a los métodos de derivación de los píxeles pero se diferencia en que no detecta bordes si no que detecta el interior de los cromosomas. La segunda técnica consiste en ir barriendo ángulos desde el principio del cromosoma y teniendo en cuenta que un cromosoma no puede doblarse más de X grados detecta las diversas regiones de los cromosomas. Una vez tengamos el cariotipo, se continua con el reconocimiento de cromosomas. Para ello existe una técnica basada en las bandas de blancos y negros que tienen los cromosomas y que son las que los hacen únicos. Para ello el programa detecta los ejes longitudinales del cromosoma y reconstruye los perfiles de las bandas que posee el cromosoma y que lo identifican como único. En cuanto al trabajo que se podría desempeñar en el futuro, tenemos por lo general dos técnicas independientes que no unen la detección con el reconocimiento por lo que se habría de preparar un programa que uniese estas dos técnicas. Respecto a las hojas hemos visto que ambos métodos, detección y reconocimiento, están vinculados debido a que ambos comparten la opinión de dividir las hojas en 5 parámetros principales. El trabajo que habría que realizar sería el de crear un algoritmo que conectase a ambos ya que en el programa de reconocimiento se debe clicar a los dos extremos de la hoja por lo que no es una tarea automática. En cuanto a los cromosomas, se debería de crear un algoritmo que busque el inicio del cromosoma y entonces empiece a barrer ángulos para después poder dárselo al programa que busca los perfiles de bandas de los cromosomas. Finalmente, en el resumen se explica el por qué hace falta este tipo de investigación, esto es que con el calentamiento global, muchas de las especies (tanto animales como plantas] se están empezando a extinguir. Es por ello que se necesitará una base de datos que contemple todas las posibles especies tanto del reino animal como del reino vegetal. Para reconocer a una especie animal, simplemente bastará con tener sus 23 cromosomas; mientras que para reconocer a una especie vegetal, existen diversas formas. Aunque la más sencilla de todas es contar con la hoja de la especie puesto que es el elemento más fácil de escanear e introducir en el ordenador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es imposible entender, definir o actuar en el litoral sin tener en cuenta las relaciones entre los procesos físicos del sistema, la complejidad jurídica y competencial que determina el tipo y ámbito de actuación, y la utilización de la costa como recurso económico, productivo y cultural. Como parte del sistema administrativo y legal, la ordenación del territorio y el planeamiento municipal han tenido un papel fundamental en la actual configuración del litoral de Cartagena, en el que se sitúan dos de los puntos negros del Mediterráneo español, Bahía de Portmán y Manga del Mar Menor, pero en el que siguen existiendo importantes tramos sin desarrollo. Con objeto de poner de manifiesto los principales aciertos y errores en su gestión, se analizará la influencia que el marco legal y los documentos de ordenación han tenido en los distintos modelos de litoral, con especial atención a la gestión desarrollada por los diferentes escalones administrativos y su evolución a lo largo del tiempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Al fin : Es propietat del seu autor. Se venen en el Mercat, pará de romansos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hay un ejemplar encuadernado con: Poesías colocadas en el pórtico del Convento de San Francisco de Valencia (NP849.91/3086).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en desarrollo de tecnologías para la interacción hombre-robot en entornos nucleares de fusión. La problemática principal del sector de fusión nuclear radica en las condiciones ambientales tan extremas que hay en el interior del reactor, y la necesidad de que los equipos cumplan requisitos muy restrictivos para poder aguantar esos niveles de radiación, magnetismo, ultravacío, temperatura... Como no es viable la ejecución de tareas directamente por parte de humanos, habrá que utilizar dispositivos de manipulación remota para llevar a cabo los procesos de operación y mantenimiento. En las instalaciones de ITER es obligatorio tener un entorno controlado de extrema seguridad, que necesita de estándares validados. La definición y uso de protocolos es indispensable para regir su buen funcionamiento. Si nos centramos en la telemanipulación con algo grado de escalado, surge la necesidad de definir protocolos para sistemas abiertos que permitan la interacción entre equipos y dispositivos de diversa índole. En este contexto se plantea la definición del Protocolo de Teleoperación que permita la interconexión entre dispositivos maestros y esclavos de distinta tipología, pudiéndose comunicar bilateralmente entre sí y utilizar distintos algoritmos de control según la tarea a desempeñar. Este protocolo y su interconectividad se han puesto a prueba en la Plataforma Abierta de Teleoperación (P.A.T.) que se ha desarrollado e integrado en la ETSII UPM como una herramienta que permita probar, validar y realizar experimentos de telerrobótica. Actualmente, este Protocolo de Teleoperación se ha propuesto a través de AENOR al grupo ISO de Telerobotics como una solución válida al problema existente y se encuentra bajo revisión. Con el diseño de dicho protocolo se ha conseguido enlazar maestro y esclavo, sin embargo con los niveles de radiación tan altos que hay en ITER la electrónica del controlador no puede entrar dentro del tokamak. Por ello se propone que a través de una mínima electrónica convenientemente protegida se puedan multiplexar las señales de control que van a través del cableado umbilical desde el controlador hasta la base del robot. En este ejercicio teórico se demuestra la utilidad y viabilidad de utilizar este tipo de solución para reducir el volumen y peso del cableado umbilical en cifras aproximadas de un 90%, para ello hay que desarrollar una electrónica específica y con certificación RadHard para soportar los enormes niveles de radiación de ITER. Para este manipulador de tipo genérico y con ayuda de la Plataforma Abierta de Teleoperación, se ha desarrollado un algoritmo que mediante un sensor de fuerza/par y una IMU colocados en la muñeca del robot, y convenientemente protegidos ante la radiación, permiten calcular las fuerzas e inercias que produce la carga, esto es necesario para poder transmitirle al operador unas fuerzas escaladas, y que pueda sentir la carga que manipula, y no otras fuerzas que puedan influir en el esclavo remoto, como ocurre con otras técnicas de estimación de fuerzas. Como el blindaje de los sensores no debe ser grande ni pesado, habrá que destinar este tipo de tecnología a las tareas de mantenimiento de las paradas programadas de ITER, que es cuando los niveles de radiación están en sus valores mínimos. Por otro lado para que el operador sienta lo más fielmente posible la fuerza de carga se ha desarrollado una electrónica que mediante el control en corriente de los motores permita realizar un control en fuerza a partir de la caracterización de los motores del maestro. Además para aumentar la percepción del operador se han realizado unos experimentos que demuestran que al aplicar estímulos multimodales (visuales, auditivos y hápticos) aumenta su inmersión y el rendimiento en la consecución de la tarea puesto que influyen directamente en su capacidad de respuesta. Finalmente, y en referencia a la realimentación visual del operador, en ITER se trabaja con cámaras situadas en localizaciones estratégicas, si bien el humano cuando manipula objetos hace uso de su visión binocular cambiando constantemente el punto de vista adecuándose a las necesidades visuales de cada momento durante el desarrollo de la tarea. Por ello, se ha realizado una reconstrucción tridimensional del espacio de la tarea a partir de una cámara-sensor RGB-D, lo cual nos permite obtener un punto de vista binocular virtual móvil a partir de una cámara situada en un punto fijo que se puede proyectar en un dispositivo de visualización 3D para que el operador pueda variar el punto de vista estereoscópico según sus preferencias. La correcta integración de estas tecnologías para la interacción hombre-robot en la P.A.T. ha permitido validar mediante pruebas y experimentos para verificar su utilidad en la aplicación práctica de la telemanipulación con alto grado de escalado en entornos nucleares de fusión. Abstract This thesis focuses on developing technologies for human-robot interaction in nuclear fusion environments. The main problem of nuclear fusion sector resides in such extreme environmental conditions existing in the hot-cell, leading to very restrictive requirements for equipment in order to deal with these high levels of radiation, magnetism, ultravacuum, temperature... Since it is not feasible to carry out tasks directly by humans, we must use remote handling devices for accomplishing operation and maintenance processes. In ITER facilities it is mandatory to have a controlled environment of extreme safety and security with validated standards. The definition and use of protocols is essential to govern its operation. Focusing on Remote Handling with some degree of escalation, protocols must be defined for open systems to allow interaction among different kind of equipment and several multifunctional devices. In this context, a Teleoperation Protocol definition enables interconnection between master and slave devices from different typologies, being able to communicate bilaterally one each other and using different control algorithms depending on the task to perform. This protocol and its interconnectivity have been tested in the Teleoperation Open Platform (T.O.P.) that has been developed and integrated in the ETSII UPM as a tool to test, validate and conduct experiments in Telerobotics. Currently, this protocol has been proposed for Teleoperation through AENOR to the ISO Telerobotics group as a valid solution to the existing problem, and it is under review. Master and slave connection has been achieved with this protocol design, however with such high radiation levels in ITER, the controller electronics cannot enter inside the tokamak. Therefore it is proposed a multiplexed electronic board, that through suitable and RadHard protection processes, to transmit control signals through an umbilical cable from the controller to the robot base. In this theoretical exercise the utility and feasibility of using this type of solution reduce the volume and weight of the umbilical wiring approximate 90% less, although it is necessary to develop specific electronic hardware and validate in RadHard qualifications in order to handle huge levels of ITER radiation. Using generic manipulators does not allow to implement regular sensors for force feedback in ITER conditions. In this line of research, an algorithm to calculate the forces and inertia produced by the load has been developed using a force/torque sensor and IMU, both conveniently protected against radiation and placed on the robot wrist. Scaled forces should be transmitted to the operator, feeling load forces but not other undesirable forces in slave system as those resulting from other force estimation techniques. Since shielding of the sensors should not be large and heavy, it will be necessary to allocate this type of technology for programmed maintenance periods of ITER, when radiation levels are at their lowest levels. Moreover, the operator perception needs to feel load forces as accurate as possible, so some current control electronics were developed to perform a force control of master joint motors going through a correct motor characterization. In addition to increase the perception of the operator, some experiments were conducted to demonstrate applying multimodal stimuli (visual, auditory and haptic) increases immersion and performance in achieving the task since it is directly correlated with response time. Finally, referring to the visual feedback to the operator in ITER, it is usual to work with 2D cameras in strategic locations, while humans use binocular vision in direct object manipulation, constantly changing the point of view adapting it to the visual needs for performing manipulation during task procedures. In this line a three-dimensional reconstruction of non-structured scenarios has been developed using RGB-D sensor instead of cameras in the remote environment. Thus a mobile virtual binocular point of view could be generated from a camera at a fixed point, projecting stereoscopic images in 3D display device according to operator preferences. The successful integration of these technologies for human-robot interaction in the T.O.P., and validating them through tests and experiments, verify its usefulness in practical application of high scaling remote handling at nuclear fusion environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[1-4]. Vista de Alcalá de la Selva y sus alrededores, en una foto Francisco Roglá López, 1915 (4 pares estereoscópicos) (4 fot.) – [5]. Francisco Roglá López en la Ermita de San Roque y Loreto, al fondo el pueblo de Alcalá de la Selva, 1915 (1 par estereoscópico) (1 fot.) – [6]. Dos hombres en la Ermita de San Roque y Loreto, 1915 (1 par estereoscópico) (1 fot.) – [7]. Grupo de hombres sentados en el Humilladero de Alcalá de la Selva, 1915 (1 par estereoscópico) (1 fot.) – [8-9]. Grupo de casas en Alcalá de la Selva, dos hombres junto a un arroyo (2 pares estereoscópicos) (2 fot.) – [10]. Iglesia de San Simón y San Judas, 1915 (1 par estereoscópico) (1 fot.) – [11]. Un hombre y una mujer junto a la puerta de una casa, destaca el empedrado característico de la calle Castillo Abajo de Alcalá de la Selva (1 par estereoscópico) (1 fot.) – [12-13]. Fiesta de los toros en la plaza de la Iglesia de Alcalá de la Selva, la gente se amontona en los balcones (2 pares estereoscópicos) (2 fot.) – [14]. Rincón de una plaza con arcos, Rubielos de Mora? (1 par estereoscópico) (1 fot.) – [15-23]. En el campo grupo de excursionistas, entre ellos Francisco y Rosalía Roglá López en algunas fotos montan en burro (9 pares estereoscópicos) (9 fot.) – [24-25]. Día festivo hombres ataviados a caballo, mujer con sombrero sentada en una mula (2 pares estereoscópicos) (2 fot.) – [26]. Francisco y Rosalía Roglá López con tres amigos en el campo a la derecha sombrilla sobre un muro de piedra (1 par estereoscópico) (1 fot.) – [27-28]. Construcción característica granero, Ojos Negros? grupo de gente alrededor de una carretilla para la mina (4 pares estereoscópicos) (2 fot.) – [29-31]. Grupo de excursionistas, descansando junto a un abrevadero, andando por un camino de tierra, hombre solitario en una carretera en construcción (4 pares estereoscópicos) (3 fot.) – [32-47]. Paisaje montañoso y vistas desde peñascos, en una de las fotos hombre y niño subidos a un árbol, zona de Alcalá de la Selva o Virgen de la Vega, árbol y losa de piedra, vistas de la Vega y las masías desde los peñascos de la Sierra de Gudar (16 pares estereoscópicos) (13 fot.) – [49]. Campos y masías, labrador arando el campo (1 par estereoscópico) (2 fot.) – [50-51]. Ganadería en los prados de la Vega (2 pares estereoscópicos) (2 fot.) – [52-54]. Paisaje en torno a la Virgen de la Vega dos mulas pastando, y grupo de aldeanos en burros por un camino al fondo varias masías, una masía solitaria, 1915 (3 pares estereoscópicos) (3 fot.) – [55-57]. Vista del Santuario de la Virgen de la Vega, chopera de la carretera que lleva al Santuario, gente alrededor de un árbol junto al Santuario, 1915 (3 pares estereoscópicos) (3 fot.) – [58]. Gente con niños comiendo en el campo junto a una fuente, 1915 (1 par estereoscópico) (1 fot.) – [59]. Anciana sobre un burro al fondo paisaje (1 par estereoscópico) (1 fot.) – [60-62]. Barranco de la Fuente con la represa de Las Lavaderas en Alcalá de la Selva? (3 pares estereoscópicos) (3 fot.) – [63-64]. Dos hombres junto a un arroyo (2 pares estereoscópicos) (1 fot.) – [65-70]. Cascada de Las Lavaderas? y varios parajes sin identificar, río Alcalá?, camino con las huellas de las ruedas de los carros (6 pares estereoscópicos) (6 fot.) – [71-75]. Tres jóvenes en una pinada, hombre de rodillas ante una persona junto a un muro de piedra en el campo, dos hombres cogiendo el tronco de un árbol, cuatro amigos en actitud divertida, hombre con sombrero y bigote (5 pares estereoscópicos) (5 fot.) – [76]. Castillo de Alcalá de la Selva, 1915 (1 par estereoscópico) (1 fot.) – [77-79]. Rosalía Roglá López con otras dos mujeres en el patio de armas del Castillo de Mora de Rubielos, y en la puerta principal, Rosalía en la puerta del castillo a contraluz, 1915 (3 pares estereoscópicos) (3 fot.) – [80]. Iglesia de la Natividad de Nuestra Señora (ex-Colegiata) en Mora de Rubielos, en la plaza la fuente y grupos de gente, 1915 (1 par estereoscópico) (1 fot.) – [81-82]. Visita al Puig patio del Monasterio del Puig en el acto de exaltación de la Virgen, restos del castillo de Jaime I de Aragón presidida por una Cruz en la cima del cerro varias personas alrededor (2 pares estereoscópicos) (2 fot.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo teve por objetivo conhecer, discutir e analisar as motivações e aspirações dos alunos inseridos nos cursos pré-vestibulares para negros e carentes da ONG EDUCAFRO, bem como a inserção desses jovens no Ensino Superior e no mercado de trabalho, considerando os mecanismos de inclusão e exclusão dos negros no Sistema Educacional Brasileiro. Dentre muitos estudos importantes, que abordam a temática do negro no sistema educacional, gostaríamos de destacar os Movimentos Sociais, de Educação e Cidadania, a dissertação: Um Estudo sobre os Cursos Pré-Vestibulares Populares, apresentada ao Programa de Pós-graduação, como requisito parcial à obtenção do título de Mestre de Alexandre do Nascimento UERJ Universidade do Estado do Rio de Janeiro, em 1999 e a dissertação de Mestrado de Cristiane Maria Ribeiro sob o título Anti-Racismo e Educação: O Projeto Político-Pedagógico das Lideranças Negras de Uberlândia em 2000. A leitura dessas obras foi essencial para o encaminhamento dos estudos que integram este trabalho, uma vez que argumentam sobre a dívida social que o Brasil tem com os afro-descendentes no sistema educacional. Destacamos também o professor, escritor e ativista dos direitos humanos, o historiador negro nascido nos EUA, John Hope Franklin declara que as políticas compensatórias foram aplicadas desde a década de sessenta. Essas políticas pretendiam oferecer aos afro-americanos a chance de participar das mudanças sociais. De modo que as universidades foram obrigadas a implantar políticas de cotas e também implantar procedimentos que fossem favoráveis à população negra. No Brasil, essa luta está sendo organizada pela ONG EDUCAFRO que vem desenvolvendo há alguns anos mecanismos de inclusão social, justificando-os por meio da necessidade de compensar os negros pela discriminação sofrida no passado, beneficiando de alguma forma essa porcentagem da população brasileira. No decorrer da pesquisa bibliográfica, encontramos, por meio das diversas obras consultadas, uma grande preocupação dos autores com a questão das Ações Afirmativas como meio de compensar a população negra, apesar da resistência por parte daqueles que temem o progresso social dos negros, no entanto, pesquisas s indicam caminhos para reverter esse quadro negativo. Diante dessa realidade, fica o grande desafio: o que motiva e quais são as metas dos professores que ministram voluntariamente aulas nos Cursinhos Comunitários? O que almejam os alunos com o seu acesso no Ensino Superior? A pesquisa confirmou que os alunos do Núcleo estudado buscam na ONG EDUCAFRO uma forma alternativa de inserção no Ensino Superior e, que essa inserção os motiva e os inspira no vislumbre de se colocarem também no mercado de trabalho. Vale ressaltar que o presente estudo não tem a pretensão de esgotar o assunto, mas de abrir espaços

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo teve por objetivo conhecer, discutir e analisar as motivações e aspirações dos alunos inseridos nos cursos pré-vestibulares para negros e carentes da ONG EDUCAFRO, bem como a inserção desses jovens no Ensino Superior e no mercado de trabalho, considerando os mecanismos de inclusão e exclusão dos negros no Sistema Educacional Brasileiro. Dentre muitos estudos importantes, que abordam a temática do negro no sistema educacional, gostaríamos de destacar os Movimentos Sociais, de Educação e Cidadania, a dissertação: Um Estudo sobre os Cursos Pré-Vestibulares Populares, apresentada ao Programa de Pós-graduação, como requisito parcial à obtenção do título de Mestre de Alexandre do Nascimento UERJ Universidade do Estado do Rio de Janeiro, em 1999 e a dissertação de Mestrado de Cristiane Maria Ribeiro sob o título Anti-Racismo e Educação: O Projeto Político-Pedagógico das Lideranças Negras de Uberlândia em 2000. A leitura dessas obras foi essencial para o encaminhamento dos estudos que integram este trabalho, uma vez que argumentam sobre a dívida social que o Brasil tem com os afro-descendentes no sistema educacional. Destacamos também o professor, escritor e ativista dos direitos humanos, o historiador negro nascido nos EUA, John Hope Franklin declara que as políticas compensatórias foram aplicadas desde a década de sessenta. Essas políticas pretendiam oferecer aos afro-americanos a chance de participar das mudanças sociais. De modo que as universidades foram obrigadas a implantar políticas de cotas e também implantar procedimentos que fossem favoráveis à população negra. No Brasil, essa luta está sendo organizada pela ONG EDUCAFRO que vem desenvolvendo há alguns anos mecanismos de inclusão social, justificando-os por meio da necessidade de compensar os negros pela discriminação sofrida no passado, beneficiando de alguma forma essa porcentagem da população brasileira. No decorrer da pesquisa bibliográfica, encontramos, por meio das diversas obras consultadas, uma grande preocupação dos autores com a questão das Ações Afirmativas como meio de compensar a população negra, apesar da resistência por parte daqueles que temem o progresso social dos negros, no entanto, pesquisas s indicam caminhos para reverter esse quadro negativo. Diante dessa realidade, fica o grande desafio: o que motiva e quais são as metas dos professores que ministram voluntariamente aulas nos Cursinhos Comunitários? O que almejam os alunos com o seu acesso no Ensino Superior? A pesquisa confirmou que os alunos do Núcleo estudado buscam na ONG EDUCAFRO uma forma alternativa de inserção no Ensino Superior e, que essa inserção os motiva e os inspira no vislumbre de se colocarem também no mercado de trabalho. Vale ressaltar que o presente estudo não tem a pretensão de esgotar o assunto, mas de abrir espaços

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na Vila de Regência Augusta, às margens do Rio Doce no município de Linhares - ES, uma intricada dinâmica sócio-religiosa reveste de atribuições religiosas um herói cujo feito remonta os finais do século XIX. Bernardo José dos Santos, morador da vila, ficaria conhecido em âmbito nacional como o herói Caboclo Bernardo ao ser homenageado por Princesa Isabel, por realizar o salvamento de 128 dos 142 tripulantes do naufrágio do Navio de Guerra Imperial Marinheiro , próximo à foz do Rio Doce. O evento e suas conseqüências tornaram-se um marco na história da vila, inclusive o assassinato do herói nos meados da segunda década do século XX. Na continuidade narrativa, ritual e simbólica do ato heróico do Caboclo Bernardo esta investigação lança suas preocupações. Atualmente acontece na vila, todos os anos, a Festa de Caboclo Bernardo, uma festividade para onde convergem religiosos de diversas etnias tupiniquim, botocudo, negros e caboclos com o intuito de prestar homenagens ao herói na capela que leva seu nome. Neste sentido, esta etnografia pretende analisar o processo de construção da identidade étnico-religiosa na vila, pois, ele acontece concomitantemente e está umbilicalmente relacionado ao processo que eleva o herói ao patamar dos santos padroeiros das bandas de congo na região. Para isso, analisado será o contexto dramático onde a identidade da vila é construída; as confluências históricas, narrativas e simbólicas que contribuem para a atual configuração da identidade; e o contexto político-institucional organizado em torno do Caboclo Bernardo, paradigma central da construção da identidade. O método etnográfico, a antropologia interpretativa e a antropologia visual forneceram os contornos metodológicos desta investigação, que se constituiu como uma descrição densa.(AU)