880 resultados para Procesamiento electrónico de datos-Diseño de circuitos electrónicos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente trabajo fin de máster se ha concebido, diseñado e utilizado una interfaz háptica, adecuada para ser utilizada como dispositivo de sustitución sensorial, la cual hemos llamado retina táctil. Por cuanto trata de proporcionar información propia del sentido de la vista a través del sentido del tacto. Durante este trabajo, que fue desarrollado en el grupo de robótica y cibernética CAR UPM-CSIC, se ha trabajado en estrecha colaboración con el departamento de la facultad de psicología de la universidad autónoma de Madrid, los cuales han definido las bases de la información de alto orden, como podrían ser, gradientes de intensidades de vibración, mediante las cuales el individuo llega a tener una mejor comprensión del ambiente. El proyecto maneja teorías psicológicas recientes, como las teorías ecológicas y dinámicas que entienden que la percepción se basa en variables informacionales de alto orden. Ejemplos de tales variables son el flujo óptico, gradientes de movimiento, gradientes de intensidades, cambios en gradientes, etc. Sorprendentemente, nuestra percepción visual es mucho más sensible a variables de alto orden que a variables de bajo orden, lo cual descarta que variables de alto orden se infieran o calculen en base a variables de bajo orden. La hipótesis que maneja la teoría ecológica es que las variables de alto orden se detectan como unidades básicas, sin descomponerlas en variables de bajo orden. Imaginemos el caso de un objeto acercándose, intuitivamente pensaríamos que calculamos la distancia y la velocidad del objeto para determinar el momento en el cual este nos impactaría, ¿pero es este realmente el modo en el que actúa nuestro cerebro?, ¿no seremos capaces en determinar directamente el tiempo de contacto como una variable de alto orden presente en el entorno?, por ejemplo, determinar directamente la relación entre el tamaño del objeto y la tasa de crecimiento. También cabe preguntarse si todas estas suposiciones son válidas para estimulaciónes a través de los receptores táctiles en la piel. El dispositivo desarrollado está conformado por 13 módulos cada uno de los cuales maneja 6 tactores o vibradores, para hacer un total de 78 vibradores (ampliables al agregar módulos adicionales), cada uno de los tactores tiene 8mm de diámetro y proporciona información del flujo óptico asociado al entorno que rodea al usuario a través de información táctil, él mismo puede ser utilizado inalámbricamente a pesar de que el procesamiento de los datos se este realizando en una computadora de mesa, lo cual es muy útil al trabajar con ambientes virtuales. También se presenta la integración de la interfaz con el sistema operativo de robots ROS para usarlo en conjunto con las librerías que han sido desarrolladas para el control de la cámara Microsoft Kinect con la cual se puede obtener una matriz de distancias de puntos en el espacio, permitiendo de esta manera utilizar la interfaz en ambientes reales. Finalmente se realizaron experimentos para comprobar hipótesis sobre la variable de percepción del tiempo de contacto además de verificar el correcto funcionamiento del dispositivo de sustitución sensorial tanto en ambientes reales como en ambientes simulados así como comprobar hipótesis sobre la validéz del uso del flujo vibrotáctil para la determinación del tiempo de contacto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La medición y testeo de células fotovoltaicas en el laboratorio o en la industria exige reproducir unas condiciones de iluminación semejantes a las reales. Por eso se utilizan sistemas de iluminación basados en lámparas flash de Xenon que reproducen las condiciones reales en cuanto a nivel de irradiancia y espectro de la luz incidente. El objetivo de este proyecto es realizar los circuitos electrónicos necesarios para el disparo de dichas lámparas. El circuito de alimentación y disparo de una lámpara flash consta de una fuente de alimentación variable, un circuito de disparo para la ionización del gas Xenon y la electrónica de control. Nuestro circuito de disparo pretende producir pulsos adecuados para los dispositivos fotovoltaicos tanto en irradiancia, espectro y en duración, de forma que con un solo disparo consigamos el tiempo, la irradiancia y el espectro suficiente para el testeo de la célula fotovoltaica. La mayoría de estos circuitos exceptuando los específicos que necesita la lámpara, serán diseñados, simulados, montados en PCB y comprobados posteriormente en el laboratorio. ABSTRACT. Measurement and testing of photovoltaic cells in the laboratory or in industry requires reproduce lighting conditions similar to the real ones. So are used based lighting systems xenon flash lamps that reproduce the actual conditions in the level of irradiance and spectrum of the incident light. The objective of this project is to make electronic circuits required for such lamps shot. The power supply circuit and flash lamp shot consists of a variable power supply, a trigger circuit for Xenon gas ionization and the control electronics. Our shot circuit aims to produce pulses suitable for photovoltaic devices both irradiance, spectrum and duration, so that with a single shot get the time, the irradiance and spectrum enough for testing the photovoltaic cell. Most of these circuits except lamp specific requirements will be designed, simulated, and PCB mounted subsequently tested in the laboratory.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este estudio se describe el software de simulación de daños en líneas de clasificación de fruta SIMLIN 2.0. Se refiere su empleo en la simulación de confección de melocotones Sudanell con una susceptibilidad intrínseca estimada mediante un modelo logístico, ajustado con esta misma herramienta, a partir de datos de Laboratorio SIMLIN 2.0 precisa la caracterización de las partidas de fruta mediante distribuciones de probabilidad, la cual puede llevarse a cabo con un interfaz de usuario de fácil utilización. El software permite evaluar los porcentajes de daño previstos para líneas de clasificación con distintos niveles de agresividad establecidos por medio de bases de datos generadas con frutos electrónicos tipo IS-100. Aporta distintas salidas gráficas que ayudan a definir las estrategias de mejora que más se adecúen a cada caso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artículo muestra la utilización de las nuevas tecnologías al servicio del aprendizaje de competencias prácticas en electrónica, siendo un ejemplo de adaptación de los recursos educativos a diferentes contextos y necesidades. Se trata de un laboratorio remoto en el que la adecuada complementación de un hardware configurable y un software de última generación permite al estudiante realizar prácticas de electrónica y diseño de circuitos en un mundo virtual 3D. El usuario dispone de un avatar e interacciona con réplicas virtuales de instrumentos, placas de circuitos, componentes o cables de forma muy similar a como se opera en un laboratorio presencial. Pero lo realmente destacable es que el usuario manipula instrumentación y circuitos que están ubicados en un laboratorio real. Todo ello se ha conseguido con un sistema escalable y de bajo coste. Finalizado el diseño y desarrollo de la plataforma se han realizado las primeras pruebas con estudiantes, profesores y profesionales para valorar su percepción respecto al uso de eLab3D, obteniéndose unos resultados muy positivos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen de la comunicación presentada en el XIII Congreso Nacional de Ingeniería Química, Madrid, 18-20 noviembre 2010.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La TV Digital ha tenido en estos últimos años una gran expansión en todo el mundo (en algunos países ya se está implementando el "apagón analógico", luego del cual toda transmisión televisiva será digital) y con una creciente cobertura en toda Latinoamérica debido a las políticas activas que en los últimos años han llevado a cabo los gobiernos (por ejemplo, el sistema de TDA – Televisión Digital Abierta de Argentina tiene una cobertura actual superior al 80% de la población). Esta expansión se debe a que esta tecnología permite no sólo una mejor calidad de imagen sino también una experiencia de usuario-televidente mucho más rica gracias a que el sistema puede transmitir y procesar datos, además del video y el sonido, y permite interacciones más complejas que la TV tradicional o analógica. Sin embargo, y a pesar de su alcance cada vez más masivo, las grandes ventajas de la TV Digital no están siendo aún explotadas en todo su potencial. Esto se debe, según los estudios realizados, a dos razones principales: (1) no se ha encontrado aún un modelo de negocios superador de la TV tradicional que aproveche la interacción del usuario-televidente (el cual, generalmente por desconocimiento, tampoco exige mayor complejidad y riqueza en su interacción con la TV) y (2) no hay suficientes recursos humanos adecuadamente formados que puedan desarrollar productos que exploten la compleja interacción entre el producto de TV (serie, unitario, película, documental) y el software (que permite el procesamiento de los datos y la interacción con el usuario-televidente) para generar producciones innovadoras en el campo televisivo. El Centro Tecnológico Comunitario de la Municipalidad de Nono (CTC Nono) nos ha solicitado ser recipiente de actividades de extensión que apunten a subsanar específicamente esta segunda causa, la falta de recursos humanos que puedan apropiarse de esta tecnología. A diferencia de muchos otros Centros Tecnológicos Comunitarios, el CTC Nono pudo continuar funcionando durante estos 14 años gracias a la capacidad de sus dirigentes de adaptar permanentemente sus objetivos y su forma de funcionamiento. EL CTC Nono, como tal, comenzó siendo un centro de alfabetización informática y de acceso popular a los servicios TIC básicos, para llegar a ser hoy un activo centro generador de programas de TV regional por un lado y de desarrollos de software por otro. Sin embargo, la característica principal que ha permanecido inmutable a lo largo de estos años es la de ser un centro de atracción, contención y aprendizaje abierto para todos los vecinos con inquietudes productivas y artísticas. Es por ello que, concientes de la enorme potencialidad y alcance de la TV Digital, es que el CTC Nono realiza esta demanda de transferencia que implica proveer conocimiento teórico y práctico para el desarrollo de programas interactivos de TV Digital a grupos multidisciplinarios (de programadores, artistas y productores de TV) de toda la zona de Traslasierra que les permita expandir su producción a esta nueva tecnología de difusión masiva. Es de esperarse que de los cursos, talleres y actividades de seguimiento de proyectos, se podrán obtener productos innovadores que aprovechen todos los beneficios que brinda la TV Digital, llevando el polo de desarrollo de TV generado gracias al CTC Nono a una nueva etapa, de expansión y uso de esta novedosa tecnología.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente investigación busca establecer el efecto del capital intelectual en los resultados de un conjunto de empresas del Eje Cafetero Colombiano, para lo cual se recurrió a diversos análisis bivariados, multivariados y de tipo exploratorio descriptivo, entre los cuales cabe mencionar el modelo clasificatorio o clúster, las correlaciones de Pearson y el análisis de componentes principales. Tras el procesamiento de los datos desde el punto de vista estadístico se puede afirmar que solo un reducido número de variables del capital intelectual tiene positivos y significativos efectos en los resultados organizativos. Adicionalmente, las comparaciones entre mejores empresas muestran que las que en su mayoría presentan altos indicadores de capital intelectual están entre la mayoría de las que alcanzan resultados sobresalientes, de lo cual se infiere una relación positiva que conviene indagarse en futuros estudios con más cantidad de sujetos, observaciones y homogeneidad entre ellos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

One way to do a bibliometric study is to examine each of the records that make up a database, each record and extract key areas that may disclose relevant information about the use of the database and documents in the collection . This article shows how a reference database allows to obtain important data that can reach conclusions that in some cases surprising. For this study we used the following fields of Database Control Documentary Indigenous Nationalities of Costa Rica 1979-2003: author, place of publication, publisher, year, language and support. The database analyzed has two thousand records and was developed in the Winisis. Moreover, analysis of documents was made after processing of the data, which was to export records to Excel software Winisis. After this information extracted from their chosen fields and are held by their respective separate chart or graph to present the results obtained. Furthermore, we show the application of different methods to learn more about the scientific aspects as: the Price Index, the Index of Collaboration This contribution will, first, for (as) students in the course of the race Metric Studies of Library and Information Science, National University, demonstrate and practice what you learned in this area. They may also benefit the (as) professionals from different areas, such as anthropologists (as), sociologists (as), linguists and librarians (as), among others (as).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este Trabajo de Fin de Grado (TFG) se engloba en la línea general Social CRM. Concretamente, está vinculado a un trabajo de investigación llamado “Knowledge discovery in social networks by using a logic-based treatment of implications” desarrollado por P. Cordero, M. Enciso, A. Mora, M. Ojeda-Aciego y C. Rossi en la Universidad de Málaga, en el cual se ofrecen nuevas soluciones para la identificación de influencias de los usuarios en las redes sociales mediante herramientas como el Analisis de Conceptos Formales (FCA). El TFG tiene como objetivo el desarrollo de una aplicación que permita al usuario crear una configuración minimal de usuarios en Twitter a los que seguir para conocer información sobre un número determinado de temas. Para ello, obtendremos información sobre dichos temas mediante la API REST pública que proporciona Twitter y procesaremos los datos mediante algoritmos basados en el Análisis de Conceptos Formales (FCA). Posteriormente, la interpretación de los resultados de dicho análisis nos proporcionará información útil sobre lo expuesto al principio. Así, el trabajo se ha dividido en tres partes fundamentales: 1. Obtención de información (fuentes) 2. Procesamiento de los datos 3. Análisis de resultados El sistema se ha implementado como una aplicación web Java EE 7, utilizando JSF para las interfaces. Para el desarrollo web se han utilizado tecnologías y frameworks como Javascript, JQuery, CSS3, Bootstrap, Twitter4J, etc. Además, se ha seguido una metodología incremental para el desarrollo del proyecto y se ha usado UML como herramienta de modelado. Este proyecto se presenta como un trabajo inicial en el que se expondrán, además del sistema implementado, diversos problemas reales y ejemplos que prueben su funcionamiento y muestren la utilidad práctica del mismo

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el fin de aminorar retrasos por descementación de cualquier accesorio durante el tratamiento de Ortodoncia Lingual, se ha considerado que la fuerza de adhesión es muy importante, especialmente cuando está ubicada en las diferentes interfaces presentes entre el bracket y la resina del PAD; entre la resina del PAD y el cemento resinoso fotopolimerizable y entre este cemento y el esmalte dental. Por lo que este estudio se ha enfocado en determinar la resistencia adhesiva en la interfaz localizada entre la resina de la base del PAD y el cemento resinoso fotopolimerizable utilizando ácido fluorhídrico y óxido de aluminio como tratamiento de superficie previo a la cementación indirecta de la técnica lingual. MATERIALES Y METODOS: El tipo de estudio fue experimental "in vitro", con una muestra de 30 cuerpos de prueba hechos con resina Transbond XT, utilizando para su confección un blíster de brackets, se siguieron tres protocolos diferentes; G1 o grupo control sin ninguna preparación, G2 con aplicación de óxido de aluminio, 50 micrones durante 10 segundos en la superficie del cuerpo de prueba, G3 con aplicación de ácido fluorhídrico al 9% en la superficie del cuerpo de prueba durante 10 minutos. Previo al test de resistencia adhesiva, se realizó los cortes de precisión en cada cuerpo de prueba, obteniendo así 45 tiras de prueba, cada una de las muestras fue adherida a un porta muestra para la prueba de micro tracción, la misma que fue realizada con la máquina universal Mini-Instron modelo 5942, a una velocidad de deformación constante de 0.5 mm/min. Los datos fueron sometidos al test de Normalidad de residuos de Shapiro Wilk (p>0,05) y de LEVENE para el análisis de homogeneidad de las varianzas. La resistencia adhesiva fue comparada entre los grupos por medio del Análisis de Varianza (ANOVA) como factor único para el procesamiento de los datos. Para todos los análisis el nivel de significancia fue del 5% (p< 0,05) con un nivel de confianza del 95% (IC95%). Se consideró estadísticamente significativo valores por debajo de 0,05. RESULTADOS Y CONCLUSIONES: El resultado del test de ANOVA, reveló que el factor de tratamiento de superficie F(2,12)=2,52;p=0,12 no es significante, por lo tanto los diferentes tratamientos de superficie (óxido de aluminio y ácido fluorhídrico) utilizados son equivalentes al grupo control, indicando que no ejercen influencia de manera significativa en los valores de Resistencia Adhesiva (RA) en la preparación de la interfaz localizada entre la resina de la base del PAD y el cemento resinoso fotopolimerizable; concluyendo que se puede utilizar cualquier protocolo de tratamiento de superficie indicado en la presente investigación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Descripción de la Unidad de Saneamiento de la DISAM del MINSAL -- Descripción de elementos del enfoque del sistema de la situación actual -- Diagramas BPMN -- Descripción de elementos del enfoque del sistema de la situación propuesta -- Estándares de diseño de interfaces -- Modelo del diseño de arquitectura -- Diagrama de enfoque de sistemas de la situación propuesta -- Patrón del diseño de arquitectura -- Diseño de la base de datos-- Diseño de modelo conceptual de la base de datos -- Diseño de modelo lógico de la base de datos

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno de los grandes retos de la HPC (High Performance Computing) consiste en optimizar el subsistema de Entrada/Salida, (E/S), o I/O (Input/Output). Ken Batcher resume este hecho en la siguiente frase: "Un supercomputador es un dispositivo que convierte los problemas limitados por la potencia de cálculo en problemas limitados por la E/S" ("A Supercomputer is a device for turning compute-bound problems into I/O-bound problems") . En otras palabras, el cuello de botella ya no reside tanto en el procesamiento de los datos como en la disponibilidad de los mismos. Además, este problema se exacerbará con la llegada del Exascale y la popularización de las aplicaciones Big Data. En este contexto, esta tesis contribuye a mejorar el rendimiento y la facilidad de uso del subsistema de E/S de los sistemas de supercomputación. Principalmente se proponen dos contribuciones al respecto: i) una interfaz de E/S desarrollada para el lenguaje Chapel que mejora la productividad del programador a la hora de codificar las operaciones de E/S; y ii) una implementación optimizada del almacenamiento de datos de secuencias genéticas. Con más detalle, la primera contribución estudia y analiza distintas optimizaciones de la E/S en Chapel, al tiempo que provee a los usuarios de una interfaz simple para el acceso paralelo y distribuido a los datos contenidos en ficheros. Por tanto, contribuimos tanto a aumentar la productividad de los desarrolladores, como a que la implementación sea lo más óptima posible. La segunda contribución también se enmarca dentro de los problemas de E/S, pero en este caso se centra en mejorar el almacenamiento de los datos de secuencias genéticas, incluyendo su compresión, y en permitir un uso eficiente de esos datos por parte de las aplicaciones existentes, permitiendo una recuperación eficiente tanto de forma secuencial como aleatoria. Adicionalmente, proponemos una implementación paralela basada en Chapel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la presente tesis, partiendo de un análisis cualitativo de mapas de anomalías gravimétricas y magnéticas de La Zona del Silencio, localizada al Centro-Norte de México, en la frontera entre los estados de Chihuahua, Coahuila y Durango, en el margen oeste del bloque de Coahuila, con el propósito de encontrar una relación entre los datos geofísicos obtenidos y las estructuras geológicas que se encuentran a lo largo del área de estudio se propuso un modelo que explica el origen de los rasgos geológicos-geofísicos superficiales y profundos. Dicho análisis se realizó a partir del procesamiento e interpretación de los mapas de anomalías tanto gravimétricas como magnéticas. Con los datos gravimétricos obtenidos del International Gravimetric Bureau se generaron mapas de anomalías de Aire Libre y de Bouguer Completa. Con el procesamiento de los datos se elaboraron mapas de las componentes Regional, Residual y Primeras Derivadas. Los datos aeromagnéticos fueron obtenidos del Servicio Geológico Mexicano, con los cuales se generaron mapas de Reducción al Polo y Residual. Complementando con un Modelo Digital de Elevaciones (DME), combinado con la revisión de los estudios geológicos previos se hicieron correlaciones con estructuras superficiales y bloques de basamento profundos de la zona. Dentro del área de investigación se observó una clara diferencia estructural entre basamento cristalino y relleno sedimentario. La dirección del campo gravimétrico es generalmente NNW-SSE y refleja la estructura del basamento. En los mapas de anomalías gravimétricas residuales se observó una tendencia regional con una orientación preferencial NNW-SSE, la cual se asocia con la provincia extensional de Cuencas y Sierras. Las anomalías magnéticas presentan una orientación principal WNW-ESE, las cuales se relacionan con la fábrica de basamento definida con el fallamiento profundo de edad Pérmico-Triásico-Jurásico de orientación WNW-ESE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

vulnerabilidad a deslizamientos ubicado en el Cerro Tamuga del cantón Paute, provincia del Azuay, la metodología empleada consiste en utilizar la técnica DGPS (Differential Global Positioning System), la misma que incluye el uso simultaneo de dos o más receptores, el método de medida empleado para las observaciones DGPS es el estático rápido con un tiempo de medida de diez minutos para cada hito, los resultados fueron comparados con mediciones realizadas con estación total, para lo que se aplicó el método de medida y cálculo de triangulación; que consiste en observar desde dos bases diferentes al mismo hito para realizar la triangulación y procesamiento de los datos. Durante la etapa de muestreo se realizó 20 campañas de medición con técnicas DGPS, monitoreando un total de 14 hitos, con técnicas convencionales (Topográficas) se realizó 7 campañas y se monitoreó 14 hitos. De estos datos se obtiene la diferencia entre la última y la primera medición tanto para valores de X, Y y Z, y por tanto se obtiene la variación de precisión para los dos métodos de medición (DGPS y Estación Total). Con los resultados (∆X, ∆Y, ∆Z) se realiza el análisis de la direccionalidad de los vectores de desplazamiento mediante la diferencia entre el promedio de todas las mediciones con el primer punto medido. Los resultados DGPS presentan menor variabilidad de los datos, por lo que se sugiere emplear esta técnica en la medición de desplazamiento en extensiones grandes. Con relación al caso de estudio del Cerro Tamuga, se determinó que mediante las mediciones con DGPS, éste no presenta movimientos, pero se deben continuar las campañas de monitoreo para analizar la situación a largo plazo.