8 resultados para Coordenadas
em Universidad de Alicante
Resumo:
Este trabajo forma parte de en un proyecto de investigación sobre la farmacología en la sociedad española del siglo XIX, en particular, acerca del papel de las prácticas y los conocimientos químicos en la transición de la materia médica a la farmacología experimental. Dentro de ese esquema general, el objeto de este artículo es el estudio de los libros de texto destinados a los estudiantes de medicina y de cirugía durante los años finales del siglo XVIII y la primera mitad del siglo XIX. Se trata de establecer las coordenadas institucionales generales dentro de las cuales fueron escritas, publicadas y leídas estas obras. El estudio arranca en 1788, fecha alrededor de la cual aparecieron numerosos libros de texto de química, entre los que figuran varias traducciones francesas y el «Curso de química» de Pedro Gutiérrez Bueno. Tras señalar la importancia de las obras de Antoine Fourcroy, se estudia la polémica acerca de las aplicaciones de la química en medicina a través de un texto de Juan Manuel de Aréjula. A continuación, se describen las principales instituciones de enseñanza de la medicina y la cirugía en las que se impartieron clases de química, con especial atención a los programas y a los libros que se publicaron para estas clases. El artículo finaliza en 1845, fecha de la reforma de planes de estudios de José Pidal.
Resumo:
El presente trabajo se enmarca en un proyecto de investigación acerca del papel de las prácticas y los conocimientos químicos en la transición de la materia médica a la farmacología experimental. Dentro de ese esquema general, el objeto de este artículo es el estudio de los libros de texto destinados a los estudiantes de medicina y de cirugía durante los años finales del siglo XVIII y la primera mitad del siglo XIX. En un estudio anterior, publicado en esta revista nos ocupamos de establecer las coordenadas institucionales generales dentro de las cuales fueron escritas, publicadas y leídas estas obras. Este trabajo es una continuación del anterior y está dedicado al análisis del «Curso de química» de Pedro Gutiérrez Bueno. A través de esta obra, se intenta ofrecer nuevos datos sobre los nuevos públicos de la química a finales del siglo XVIII y su influencia en la estructura y contenidos de los nuevos libros de texto.
Resumo:
Fundamentos: Geocodificar es asignar coordenadas geográficas a puntos del espacio, frecuentemente direcciones postales. El error cometido al aplicar este proceso puede introducir un sesgo en las estimaciones de modelos espacio-temporales en estudios epidemiológicos. No se han encontrado estudios que midan este error en ciudades españolas. El objetivo es evaluar los errores en magnitud y direccionalidad de dos recursos gratuitos (Google y Yahoo) respecto a GPS en dos ciudades de España. Método: Se geocodificaron 30 direcciones aleatorias con los dos recursos citados y con GPS en Santa Pola (Alicante) y en Alicante. Se calculó la mediana y su IC95% del error en metros entre los recursos y GPS, para el total y por el status reportado. Se evaluó la direccionalidad del error calculando el cuadrante de localización y aplicando un test Chi-Cuadrado. Se evaluó el error del GPS midiendo 11 direcciones dos veces en un intervalo de 4 días. Resultados: La mediana del error total desde Google-GPS fue de 23,2 metros (16,0-32,2) para Santa Pola y 21,4 metros (14,9-31,1) en Alicante. Para Yahoo fue de 136,0 (19,2-318,5) para Santa Pola y 23,8 (13,6-29,2) para Alicante. Por status, se geocodificó entre un 73% y 90% como ‘exactas o interpoladas’ (menor error), tanto Google como Yahoo tuvieron una mediana del error de entre 19 y 22 metros en las dos ciudades. El error del GPS fue de 13,8 (6,7-17,8) metros. No se detectó direccionalidad. Conclusiones: El error de Google es asumible y estable en las dos ciudades, siendo un recurso fiable para geocodificar direcciones postales en España en estudios epidemiológicos.
Resumo:
Pretendemos mostrar qué tipo de representación social del inmigrante y/o la inmigración proporciona la prensa española y comprobar hasta qué punto ésta puede construir y alimentar imaginarios que hagan muy difícil la práctica de la interculturalidad. Queremos analizar el grado en el que nuestras ciudades globales se rigen aún por coordenadas locales y territoriales o si, por el contrario, la llegada de inmigrantes está trayendo consigo un nuevo concepto de ciudadano y de identidad cultural. Nos interesa, en definitiva, explorar qué modelo de identidad transmiten y consolidan los medios de comunicación y si éste sirve para fomentar el diálogo entre culturas o si, por el contrario, está contribuyendo a perpetuar la brecha entre el “nosotros” y el “ellos”.
Resumo:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
Resumo:
En este trabajo se propone y desarrolla una topología en k-hipercubos que resuelve los principales inconvenientes asociados a la topología en hipercubo convencional. Los resultados obtenidos son muy prometedores, con aplicaciones tanto en el campo de la voz sobre IP, como en muchos otros campos que precisen de un intercambio de información muchos a muchos. Sobre la topología propuesta se define el protocolo Darkcube, que es una propuesta de protocolo totalmente distribuido basado en el concepto de darknet, posibilitando la realización de conversaciones muchos a muchos incluyendo audio, vídeo, texto y datos de geoposicionamiento, entre otros. También se propone un método de codificación de coordenadas de geoposicionamiento que resulta especialmente eficiente en el aprovechamiento del ancho de banda sobrante en las comunicaciones muchos a muchos que proporciona Darkcube. Durante el desarrollo de este trabajo, se ha implementado el simulador DarkcubeEmu; herramienta que posibilita la obtención de resultados relevantes en términos de la calidad de la comunicación. Finalmente, utilizando como base el protocolo Darkcube, se propone un protocolo de seguridad que traslada un esquema de infraestructura de clave pública a un protocolo totalmente distribuido, como es Darkcube; garantizando, de esta forma, la confidencialidad en las comunicaciones y la legitimidad de la identidad asociada a cada uno de sus miembros.
Resumo:
En este artículo damos a conocer un amplio conjunto de materiales inéditos procedentes de El Pitxòcol, uno de los oppida más importantes del área central de la Contestania ibérica y hasta el momento poco conocido. Nuestro principal objetivo ha sido el estudio detallado del repertorio material con el fin de poder establecer la secuencia de ocupación del asentamiento desde el Hierro Antiguo hasta época ibérica final, momento en el que parece producirse una revitalización del hábitat en el poblado. Así mismo, hemos tratado de enmarcar esta secuencia no solo en sus coordenadas temporales sino también espaciales, tratando de entender El Pitxòcol en su contexto territorial.