1000 resultados para Procesamiento electrónico de datos-Hongos
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.
Resumo:
La ecografía es hoy en día uno de los métodos de visualización más populares para examinar el interior de cuerpos opacos. Su aplicación es especialmente significativa tanto en el campo del diagnóstico médico como en las aplicaciones de evaluación no destructiva en el ámbito industrial, donde se evalúa la integridad de un componente o una estructura. El desarrollo de sistemas ecográficos de alta calidad y con buenas prestaciones se basa en el empleo de sistemas multisensoriales conocidos como arrays que pueden estar compuestos por varias decenas de elementos. El desarrollo de estos dispositivos tiene asociada una elevada complejidad, tanto por el número de sensores y la electrónica necesaria para la adquisición paralela de señales, como por la etapa de procesamiento de los datos adquiridos que debe operar en tiempo real. Esta etapa de procesamiento de señal trabaja con un elevado flujo de datos en paralelo y desarrolla, además de la composición de imagen, otras sofisticadas técnicas de medidas sobre los datos (medida de elasticidad, flujo, etc). En este sentido, el desarrollo de nuevos sistemas de imagen con mayores prestaciones (resolución, rango dinámico, imagen 3D, etc) está fuertemente limitado por el número de canales en la apertura del array. Mientras algunos estudios se han centrado en la reducción activa de sensores (sparse arrays como ejemplo), otros se han centrado en analizar diferentes estrategias de adquisiciónn que, operando con un número reducido de canales electrónicos en paralelo, sean capaz por multiplexación emular el funcionamiento de una apertura plena. A estas últimas técnicas se las agrupa mediante el concepto de Técnicas de Apertura Sintética (SAFT). Su interés radica en que no solo son capaces de reducir los requerimientos hardware del sistema (bajo consumo, portabilidad, coste, etc) sino que además permiten dentro de cierto compromiso la mejora de la calidad de imagen respecto a los sistemas convencionales...
Resumo:
La TV Digital ha tenido en estos últimos años una gran expansión en todo el mundo (en algunos países ya se está implementando el "apagón analógico", luego del cual toda transmisión televisiva será digital) y con una creciente cobertura en toda Latinoamérica debido a las políticas activas que en los últimos años han llevado a cabo los gobiernos (por ejemplo, el sistema de TDA – Televisión Digital Abierta de Argentina tiene una cobertura actual superior al 80% de la población). Esta expansión se debe a que esta tecnología permite no sólo una mejor calidad de imagen sino también una experiencia de usuario-televidente mucho más rica gracias a que el sistema puede transmitir y procesar datos, además del video y el sonido, y permite interacciones más complejas que la TV tradicional o analógica. Sin embargo, y a pesar de su alcance cada vez más masivo, las grandes ventajas de la TV Digital no están siendo aún explotadas en todo su potencial. Esto se debe, según los estudios realizados, a dos razones principales: (1) no se ha encontrado aún un modelo de negocios superador de la TV tradicional que aproveche la interacción del usuario-televidente (el cual, generalmente por desconocimiento, tampoco exige mayor complejidad y riqueza en su interacción con la TV) y (2) no hay suficientes recursos humanos adecuadamente formados que puedan desarrollar productos que exploten la compleja interacción entre el producto de TV (serie, unitario, película, documental) y el software (que permite el procesamiento de los datos y la interacción con el usuario-televidente) para generar producciones innovadoras en el campo televisivo. El Centro Tecnológico Comunitario de la Municipalidad de Nono (CTC Nono) nos ha solicitado ser recipiente de actividades de extensión que apunten a subsanar específicamente esta segunda causa, la falta de recursos humanos que puedan apropiarse de esta tecnología. A diferencia de muchos otros Centros Tecnológicos Comunitarios, el CTC Nono pudo continuar funcionando durante estos 14 años gracias a la capacidad de sus dirigentes de adaptar permanentemente sus objetivos y su forma de funcionamiento. EL CTC Nono, como tal, comenzó siendo un centro de alfabetización informática y de acceso popular a los servicios TIC básicos, para llegar a ser hoy un activo centro generador de programas de TV regional por un lado y de desarrollos de software por otro. Sin embargo, la característica principal que ha permanecido inmutable a lo largo de estos años es la de ser un centro de atracción, contención y aprendizaje abierto para todos los vecinos con inquietudes productivas y artísticas. Es por ello que, concientes de la enorme potencialidad y alcance de la TV Digital, es que el CTC Nono realiza esta demanda de transferencia que implica proveer conocimiento teórico y práctico para el desarrollo de programas interactivos de TV Digital a grupos multidisciplinarios (de programadores, artistas y productores de TV) de toda la zona de Traslasierra que les permita expandir su producción a esta nueva tecnología de difusión masiva. Es de esperarse que de los cursos, talleres y actividades de seguimiento de proyectos, se podrán obtener productos innovadores que aprovechen todos los beneficios que brinda la TV Digital, llevando el polo de desarrollo de TV generado gracias al CTC Nono a una nueva etapa, de expansión y uso de esta novedosa tecnología.
Resumo:
La presente investigación busca establecer el efecto del capital intelectual en los resultados de un conjunto de empresas del Eje Cafetero Colombiano, para lo cual se recurrió a diversos análisis bivariados, multivariados y de tipo exploratorio descriptivo, entre los cuales cabe mencionar el modelo clasificatorio o clúster, las correlaciones de Pearson y el análisis de componentes principales. Tras el procesamiento de los datos desde el punto de vista estadístico se puede afirmar que solo un reducido número de variables del capital intelectual tiene positivos y significativos efectos en los resultados organizativos. Adicionalmente, las comparaciones entre mejores empresas muestran que las que en su mayoría presentan altos indicadores de capital intelectual están entre la mayoría de las que alcanzan resultados sobresalientes, de lo cual se infiere una relación positiva que conviene indagarse en futuros estudios con más cantidad de sujetos, observaciones y homogeneidad entre ellos.
Resumo:
One way to do a bibliometric study is to examine each of the records that make up a database, each record and extract key areas that may disclose relevant information about the use of the database and documents in the collection . This article shows how a reference database allows to obtain important data that can reach conclusions that in some cases surprising. For this study we used the following fields of Database Control Documentary Indigenous Nationalities of Costa Rica 1979-2003: author, place of publication, publisher, year, language and support. The database analyzed has two thousand records and was developed in the Winisis. Moreover, analysis of documents was made after processing of the data, which was to export records to Excel software Winisis. After this information extracted from their chosen fields and are held by their respective separate chart or graph to present the results obtained. Furthermore, we show the application of different methods to learn more about the scientific aspects as: the Price Index, the Index of Collaboration This contribution will, first, for (as) students in the course of the race Metric Studies of Library and Information Science, National University, demonstrate and practice what you learned in this area. They may also benefit the (as) professionals from different areas, such as anthropologists (as), sociologists (as), linguists and librarians (as), among others (as).
Resumo:
Este Trabajo de Fin de Grado (TFG) se engloba en la línea general Social CRM. Concretamente, está vinculado a un trabajo de investigación llamado “Knowledge discovery in social networks by using a logic-based treatment of implications” desarrollado por P. Cordero, M. Enciso, A. Mora, M. Ojeda-Aciego y C. Rossi en la Universidad de Málaga, en el cual se ofrecen nuevas soluciones para la identificación de influencias de los usuarios en las redes sociales mediante herramientas como el Analisis de Conceptos Formales (FCA). El TFG tiene como objetivo el desarrollo de una aplicación que permita al usuario crear una configuración minimal de usuarios en Twitter a los que seguir para conocer información sobre un número determinado de temas. Para ello, obtendremos información sobre dichos temas mediante la API REST pública que proporciona Twitter y procesaremos los datos mediante algoritmos basados en el Análisis de Conceptos Formales (FCA). Posteriormente, la interpretación de los resultados de dicho análisis nos proporcionará información útil sobre lo expuesto al principio. Así, el trabajo se ha dividido en tres partes fundamentales: 1. Obtención de información (fuentes) 2. Procesamiento de los datos 3. Análisis de resultados El sistema se ha implementado como una aplicación web Java EE 7, utilizando JSF para las interfaces. Para el desarrollo web se han utilizado tecnologías y frameworks como Javascript, JQuery, CSS3, Bootstrap, Twitter4J, etc. Además, se ha seguido una metodología incremental para el desarrollo del proyecto y se ha usado UML como herramienta de modelado. Este proyecto se presenta como un trabajo inicial en el que se expondrán, además del sistema implementado, diversos problemas reales y ejemplos que prueben su funcionamiento y muestren la utilidad práctica del mismo
Resumo:
Con el fin de aminorar retrasos por descementación de cualquier accesorio durante el tratamiento de Ortodoncia Lingual, se ha considerado que la fuerza de adhesión es muy importante, especialmente cuando está ubicada en las diferentes interfaces presentes entre el bracket y la resina del PAD; entre la resina del PAD y el cemento resinoso fotopolimerizable y entre este cemento y el esmalte dental. Por lo que este estudio se ha enfocado en determinar la resistencia adhesiva en la interfaz localizada entre la resina de la base del PAD y el cemento resinoso fotopolimerizable utilizando ácido fluorhídrico y óxido de aluminio como tratamiento de superficie previo a la cementación indirecta de la técnica lingual. MATERIALES Y METODOS: El tipo de estudio fue experimental "in vitro", con una muestra de 30 cuerpos de prueba hechos con resina Transbond XT, utilizando para su confección un blíster de brackets, se siguieron tres protocolos diferentes; G1 o grupo control sin ninguna preparación, G2 con aplicación de óxido de aluminio, 50 micrones durante 10 segundos en la superficie del cuerpo de prueba, G3 con aplicación de ácido fluorhídrico al 9% en la superficie del cuerpo de prueba durante 10 minutos. Previo al test de resistencia adhesiva, se realizó los cortes de precisión en cada cuerpo de prueba, obteniendo así 45 tiras de prueba, cada una de las muestras fue adherida a un porta muestra para la prueba de micro tracción, la misma que fue realizada con la máquina universal Mini-Instron modelo 5942, a una velocidad de deformación constante de 0.5 mm/min. Los datos fueron sometidos al test de Normalidad de residuos de Shapiro Wilk (p>0,05) y de LEVENE para el análisis de homogeneidad de las varianzas. La resistencia adhesiva fue comparada entre los grupos por medio del Análisis de Varianza (ANOVA) como factor único para el procesamiento de los datos. Para todos los análisis el nivel de significancia fue del 5% (p< 0,05) con un nivel de confianza del 95% (IC95%). Se consideró estadísticamente significativo valores por debajo de 0,05. RESULTADOS Y CONCLUSIONES: El resultado del test de ANOVA, reveló que el factor de tratamiento de superficie F(2,12)=2,52;p=0,12 no es significante, por lo tanto los diferentes tratamientos de superficie (óxido de aluminio y ácido fluorhídrico) utilizados son equivalentes al grupo control, indicando que no ejercen influencia de manera significativa en los valores de Resistencia Adhesiva (RA) en la preparación de la interfaz localizada entre la resina de la base del PAD y el cemento resinoso fotopolimerizable; concluyendo que se puede utilizar cualquier protocolo de tratamiento de superficie indicado en la presente investigación.
Resumo:
Uno de los grandes retos de la HPC (High Performance Computing) consiste en optimizar el subsistema de Entrada/Salida, (E/S), o I/O (Input/Output). Ken Batcher resume este hecho en la siguiente frase: "Un supercomputador es un dispositivo que convierte los problemas limitados por la potencia de cálculo en problemas limitados por la E/S" ("A Supercomputer is a device for turning compute-bound problems into I/O-bound problems") . En otras palabras, el cuello de botella ya no reside tanto en el procesamiento de los datos como en la disponibilidad de los mismos. Además, este problema se exacerbará con la llegada del Exascale y la popularización de las aplicaciones Big Data. En este contexto, esta tesis contribuye a mejorar el rendimiento y la facilidad de uso del subsistema de E/S de los sistemas de supercomputación. Principalmente se proponen dos contribuciones al respecto: i) una interfaz de E/S desarrollada para el lenguaje Chapel que mejora la productividad del programador a la hora de codificar las operaciones de E/S; y ii) una implementación optimizada del almacenamiento de datos de secuencias genéticas. Con más detalle, la primera contribución estudia y analiza distintas optimizaciones de la E/S en Chapel, al tiempo que provee a los usuarios de una interfaz simple para el acceso paralelo y distribuido a los datos contenidos en ficheros. Por tanto, contribuimos tanto a aumentar la productividad de los desarrolladores, como a que la implementación sea lo más óptima posible. La segunda contribución también se enmarca dentro de los problemas de E/S, pero en este caso se centra en mejorar el almacenamiento de los datos de secuencias genéticas, incluyendo su compresión, y en permitir un uso eficiente de esos datos por parte de las aplicaciones existentes, permitiendo una recuperación eficiente tanto de forma secuencial como aleatoria. Adicionalmente, proponemos una implementación paralela basada en Chapel.
Resumo:
En la presente tesis, partiendo de un análisis cualitativo de mapas de anomalías gravimétricas y magnéticas de La Zona del Silencio, localizada al Centro-Norte de México, en la frontera entre los estados de Chihuahua, Coahuila y Durango, en el margen oeste del bloque de Coahuila, con el propósito de encontrar una relación entre los datos geofísicos obtenidos y las estructuras geológicas que se encuentran a lo largo del área de estudio se propuso un modelo que explica el origen de los rasgos geológicos-geofísicos superficiales y profundos. Dicho análisis se realizó a partir del procesamiento e interpretación de los mapas de anomalías tanto gravimétricas como magnéticas. Con los datos gravimétricos obtenidos del International Gravimetric Bureau se generaron mapas de anomalías de Aire Libre y de Bouguer Completa. Con el procesamiento de los datos se elaboraron mapas de las componentes Regional, Residual y Primeras Derivadas. Los datos aeromagnéticos fueron obtenidos del Servicio Geológico Mexicano, con los cuales se generaron mapas de Reducción al Polo y Residual. Complementando con un Modelo Digital de Elevaciones (DME), combinado con la revisión de los estudios geológicos previos se hicieron correlaciones con estructuras superficiales y bloques de basamento profundos de la zona. Dentro del área de investigación se observó una clara diferencia estructural entre basamento cristalino y relleno sedimentario. La dirección del campo gravimétrico es generalmente NNW-SSE y refleja la estructura del basamento. En los mapas de anomalías gravimétricas residuales se observó una tendencia regional con una orientación preferencial NNW-SSE, la cual se asocia con la provincia extensional de Cuencas y Sierras. Las anomalías magnéticas presentan una orientación principal WNW-ESE, las cuales se relacionan con la fábrica de basamento definida con el fallamiento profundo de edad Pérmico-Triásico-Jurásico de orientación WNW-ESE.
Resumo:
El abastecimiento ha cobrado mayor énfasis en los últimos años al igual que las empresas o unidades dedicadas a esta actividad; son mejor conocidas como Cadena de Suministros y han surgido a raíz de las oportunidades de mercado que ofrece el país, tales como: Tratados de Libre Comercio (TLC’s), ampliación y modernización de aduanas y vías (carreteras) que permiten mayor accesibilidad y fluidez del transporte, la construcción de puertos como el de la Unión, y la restauración del puerto de Acajutla, etc., lo que permite que este negocio se vuelva más atractivo para la inversión y que contribuya el desarrollo económico y social del país, entre estas empresas esta la Corporación de Franquicias Americanas S.A. de C.V., Es importante resaltar, que para las pequeñas y medianas empresas que quieran apostarle a este sector, obtendrían beneficios al agruparse para formar una sola unidad de abastecimientos, ya que disminuirían costos, mejorarían el manejo de los inventarios, tendrían mayor liquidez y un fortalecimiento en la capacidad de negociación. El presente trabajo de investigación tiene como objetivo principal ayudar a las empresas salvadoreñas y principalmente a la empresa Corporación de Franquicias Americanas S.A. de C.V., por medio de un Modelo de Cadena de Suministros que les permita una gestión eficiente y un uso óptimo de los recursos para convertir el abastecimiento en una ventaja competitiva que agregue valor a la operación y de esa manera poder competir sostenidamente en el mercado. El método que se utilizó fue el científico específicamente el inductivo del que se obtuvo conclusiones generales por medio de la observación y registro de los hechos, detectando las deficiencias; y el deductivo que mediante la observación y procesamiento de los datos se pudo llegar a conclusiones generales con alternativas de solución para los problemas. Las técnicas que se utilizaron para la investigación fueron cuestionarios, entrevista y observación directa. Con el resultado obtenido en el diagnóstico se desarrolló una propuesta la cual contiene procedimientos, Manual de Descripción de puestos y perfiles para las unidades de la Cadena de Suministros.
Resumo:
vulnerabilidad a deslizamientos ubicado en el Cerro Tamuga del cantón Paute, provincia del Azuay, la metodología empleada consiste en utilizar la técnica DGPS (Differential Global Positioning System), la misma que incluye el uso simultaneo de dos o más receptores, el método de medida empleado para las observaciones DGPS es el estático rápido con un tiempo de medida de diez minutos para cada hito, los resultados fueron comparados con mediciones realizadas con estación total, para lo que se aplicó el método de medida y cálculo de triangulación; que consiste en observar desde dos bases diferentes al mismo hito para realizar la triangulación y procesamiento de los datos. Durante la etapa de muestreo se realizó 20 campañas de medición con técnicas DGPS, monitoreando un total de 14 hitos, con técnicas convencionales (Topográficas) se realizó 7 campañas y se monitoreó 14 hitos. De estos datos se obtiene la diferencia entre la última y la primera medición tanto para valores de X, Y y Z, y por tanto se obtiene la variación de precisión para los dos métodos de medición (DGPS y Estación Total). Con los resultados (∆X, ∆Y, ∆Z) se realiza el análisis de la direccionalidad de los vectores de desplazamiento mediante la diferencia entre el promedio de todas las mediciones con el primer punto medido. Los resultados DGPS presentan menor variabilidad de los datos, por lo que se sugiere emplear esta técnica en la medición de desplazamiento en extensiones grandes. Con relación al caso de estudio del Cerro Tamuga, se determinó que mediante las mediciones con DGPS, éste no presenta movimientos, pero se deben continuar las campañas de monitoreo para analizar la situación a largo plazo.
Resumo:
Los eventos transitorios únicos analógicos (ASET, Analog Single Event Transient) se producen debido a la interacción de un ión pesado o un protón de alta energía con un dispositivo sensible de un circuito analógico. La interacción del ión con un transistor bipolar o de efecto de campo MOS induce pares electrón-hueco que provocan picos que pueden propagarse a la salida del componente analógico provocando transitorios que pueden inducir fallas en el nivel sistema. Los problemas más graves debido a este tipo de fenómeno se dan en el medioambiente espacial, muy rico en iones pesados. Casos típicos los constituyen las computadoras de a bordo de satélites y otros artefactos espaciales. Sin embargo, y debido a la continua contracción de dimensiones de los transistores (que trae aparejado un aumento de sensibilidad), este fenómeno ha comenzado a observarse a nivel del mar, provocado fundamentalmente por el impacto de neutrones atmosféricos. Estos efectos pueden provocar severos problemas a los sistemas informáticos con interfaces analógicas desde las que obtienen datos para el procesamiento y se han convertido en uno de los problemas más graves a los que tienen que hacer frente los diseñadores de sistemas de alta escala de integración. Casos típicos son los Sistemas en Chip que incluyen módulos de procesamiento de altas prestaciones como las interfaces analógicas.El proyecto persigue como objetivo general estudiar la susceptibilidad de sistemas informáticos a ASETs en sus secciones analógicas, proponiendo estrategias para la mitigación de los errores.Como objetivos específicos se pretende: -Proponer nuevos modelos de ASETs basados en simulaciones en el nivel dispositivo y resueltas por el método de elementos finitos.-Utilizar los modelos para identificar las secciones más propensas a producir errores y consecuentemente para ser candidatos a la aplicación de técnicas de endurecimiento a radiaciones.-Utilizar estos modelos para estudiar la naturaleza de los errores producidos en sistemas de procesamiento de datos.-Proponer soluciones novedosas para la mitigación de estos efectos en los mismos circuitos analógicos evitando su propagación a las secciones digitales.-Proponer soluciones para la mitigación de los efectos en el nivel sistema.Para llevar a cabo el proyecto se plantea un procedimiento ascendente para las investigaciones a realizar, comenzando por descripciones en el nivel físico para posteriormente aumentar el nivel de abstracción en el que se encuentra modelado el circuito. Se propone el modelado físico de los dispositivos MOS y su resolución mediante el Método de Elementos Finitos. La inyección de cargas en las zonas sensibles de los modelos permitirá determinar los perfiles de los pulsos de corriente que deben inyectarse en el nivel circuito para emular estos efectos. Estos procedimientos se realizarán para los distintos bloques constructivos de las interfaces analógicas, proponiendo estrategias de mitigación de errores en diferentes niveles.Los resultados esperados del presente proyecto incluyen hardware para detección de errores y tolerancia a este tipo de eventos que permitan aumentar la confiabilidad de sistemas de tratamiento de la información, así como también nuevos datos referentes a efectos de la radiación en semiconductores, nuevos modelos de fallas transitorias que permitan una simulación de estos eventos en el nivel circuito y la determinación de zonas sensibles de interfaces analógicas típicas que deben ser endurecidas para radiación.
Resumo:
En la port.: Dirección General de Planificación e Innovación Sanitaria, Servicio de Conciertos Sanitarios
Resumo:
Tesis (Maestría en Psicología con Orientación Laboral y Organizacional) UANL, 2012.