1000 resultados para Procesamiento electrónico de datos-Hongos
Resumo:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
Resumo:
La dirección ha desarrollado en los últimos anos un proyecto para la generación de una base de datos con los datos pluviométricos de la provincia, desde 1940 a la actualidad. Para su consulta se diseno una interface tipo web . Dicha base se encuentra cargada en una computadora tipo PC, pero su volumen es tal que el procesamiento requerido para obtener respuestas de consultas particulares o bien de generación de estadísticas, es inaceptable por lo lento. En virtud de esto se hace necesario el traslado de la base a un entorno de mayor capacidad de procesamiento, que en la actualidad, por una cuestion económica, es conveniente hacer sobre un cluster de computadoras multicore, con capacidad de almacenamiento y procesamiento distribuido. Por lo que el objeto de la transferencia es el conocimiento y procedimiento necesario para trasladar a dicho entorno, el estado actual de la base de datos, y su posterior mantenimiento, puesta a punto y optimización del sistema necesario.
Resumo:
En este Trabajo de Fin de Máster se desarrollará un sistema de detección de fraude en pagos con tarjeta de crédito en tiempo real utilizando tecnologías de procesamiento distribuido. Concretamente se considerarán dos tecnologías: TIBCO, un conjunto de herramientas comerciales diseñadas para el procesamiento de eventos complejos, y Apache Spark, un sistema abierto para el procesamiento de datos en tiempo real. Además de implementar el sistema utilizando las dos tecnologías propuestas, un objetivo, otro objetivo de este Trabajo de Fin de Máster consiste en analizar y comparar estos dos sistemas implementados usados para procesamiento en tiempo real. Para la detección de fraude en pagos con tarjeta de crédito se aplicarán técnicas de aprendizaje máquina, concretamente del campo de anomaly/outlier detection. Como fuentes de datos que alimenten los sistemas, haremos uso de tecnologías de colas de mensajes como TIBCO EMS y Kafka. Los datos generados son enviados a estas colas para que los respectivos sistemas puedan procesarlos y aplicar el algoritmo de aprendizaje máquina, determinando si una nueva instancia es fraude o no. Ambos sistemas hacen uso de una base de datos MongoDB para almacenar los datos generados de forma pseudoaleatoria por los generadores de mensajes, correspondientes a movimientos de tarjetas de crédito. Estos movimientos posteriormente serán usados como conjunto de entrenamiento para el algoritmo de aprendizaje máquina.
Resumo:
El desarrollo de los Sistemas de Información Gerencial basados en tecnologías de Data Warehouse y Herramientas Olap, es relativamente reciente y, por lo tanto, no existe una propuesta metodológica universalmente válida y aceptada como tal, porla comunidad académica. El presente artículo expone una propuesta metodológica para la realización del diseño de una bodega de datos, que utiliza como eje articulador la identificación de las necesidades de información por parte de la gerencia, para el soporte de los procesos de control y de toma de decisiones.El método propuesto está compuesto de ocho pasos agrupados en tres fases. La primera fase comprende la identificación de las necesidades de información gerencial, desde la perspectivadel negocio. La segunda fase comprende todas las actividades relacionadas con la elaboración de un modelo lógico-conceptual de la estructura de la bodega de datos. La tercera fase incluye los pasos para realizar el diseño físico de la estructura de la bodega de datos.
Resumo:
La segmentación del mercado y el conocer al cliente es aún más importante hoy en día para contrarrestar los efectos de la recesión y la poderosa competencia que se ha presentado por la apertura del mercado latinoamericano y simultáneamente aprovechar las tendencias hacia la fusión, la adquisición y la consolidación del mercado. Este artículo pretende promover Investigaciones de Mercado más sofisticadas, enfatizando la importancia del establecimiento y la manipulación de una base de datos. Por la discusión de un estudio del sector bancario se ve el uso de dos técnicas del análisis multivariado. A pesar de que el artículo enfoque sobre el sector bancario, los mismos conceptos son aplicables a cualquier sector, bien sea producto o servicio. Se divide el artículo en tres partes, en la primera se describe el porqué y los métodos para acumular y analizar información a partir de la base de datos, para disminuir riesgos en la segmentación y el lanzamiento de nuevos productos. La segunda parte nos muestra dos técnicas multivariadas, aplicadas en investigaciones de mercados al manipular los datos, bien conocidas por las agencias investigadoras: el análisis factorial (AF) y el análisis discriminador (AD). Finalmente, la tercera parte le presentará al gerente conclusiones y recomendaciones prácticas sobre la gestión de la relación con la agencia contratada para la presentación del análisis de los datos, para que sean más eficientes y precisos los esfuerzos del Departamento de Mercadeo en el procesode la segmentación del mercado.
Resumo:
La construcción en 1946 del primer computador electrónico de uso general que funcionó satisfactoriamente, el ENIAC, se puede tomar como el de punto de la historia del hardware y el software, esto implica cincuenta años de desarrollo en estas dos áreas. Durante los primeros años del hardware, el principal reto era incrementarlo de forma que se redujera el costo de procesamiento y almacenamiento de datos, lo cual se logró a lo largo de la década de los años 80 con los grandes avances en microelectrónica. Hoy el problema es diferente el principal objetivo es producir software de calidad, reusable, económico, fácil de mantener y confiable, pero aún no se ha logrado un avance comparable al de la microelectrónica que permita al software alcanzar los niveles del hardware.
Resumo:
Hemos dedicado este texto al tratamiento descriptivo de los datos, esto es, al estudio de la primera rama de la estadística, la cual se conoce como estadística descriptiva. Se mostrara el tratamiento de variables tanto cualitativas como cuantitativas desde una perspectiva exploratoria para una y dos variables, y con el acompañamiento de la herramienta computacional R. El R es un software de distribución gratuita constituido por un conjunto de métodos estadísticos que están en continuo desarrollo. Contiene la mayoría de las técnicas estadísticas clásicas estándar así como las últimas metodologías en uso. El desarrollo del texto se presenta de la siguiente manera: el primer capítulo estará dedicado a los conceptos básicos, el capítulo dos estudiará el análisis de datos cualitativos, el tres realizará un estudio de los datos cuantitativos tanto para datos agrupados como sin agrupar, y finalmente el último capítulo hará una revisión bivariada de datos tanto cualitativos como cuantitativos.
Resumo:
Este trabajo nace de una idea conjunta del desarrollo de un software capaz de trabajar con una máquina de rayos X para la toma de mamografías, y ser una herramienta para los radiólogos a la hora de analizar las imágenes y localizar zonas que pudieran ser sensibles de tener algún tipo de tumoración. No se trata de un software que pretenda suplantar la función de un radiólogo; es importante tener claro que el experto en radiología es el único capaz de analizar, comparar y tomar decisiones reales, y este software pretende simplificar esa tarea al máximo. Este programa utiliza como recursos para su funcionamiento una base de datos de mamografías procesadas anteriormente, a partir de las cuales entrena a la red neuronal para que sea capaz de clasificar mamografías nuevas y mostrar las posibles zonas críticas. Esta base de datos debe indicar a la red qué mamografías presentan algún tumor y dónde, para que la red aprenda a diferenciar entre zonas críticas y zonas no críticas. Esta idea deriva en la realización de dos trabajos que se especializan en los dos ámbitos del proyecto, en primer lugar el procesamiento y el análisis de esas mamografías obtenidas de la máquina de rayos X, que da lugar al presente trabajo; y en segundo lugar, deriva en un trabajo paralelo que explica la obtención, el análisis y la clasificación de los datos que se desprenden de este proyecto utilizando redes neuronales, titulado “Detección y clasificación de tumores en mamografías a través de redes neuronales”; realizado por Rodrigo Culotta López
Resumo:
En el área de Aerofotogrametría Digital, el software comercial prevalente para postproceso presenta limitaciones debido a dos factores: (i) las legislaciones de cada país o región requieren diferentes convenciones, y (ii) las necesidades de las empresas son tan cambiantes que no justifican la compra de software de alto rendimiento, que puede quedar sin utilizar debido a un viraje del mercado -- El presente proyecto se ha desarrollado para atender necesidades de procesamiento automático de planos (partición, detección y corrección de errores, etc.), así como módulos de importación – exportación paquete a paquete, trazado de rutas e interacción con GPS -- Este artículo informa de los dos últimos aspectos -- Debido a necesidades de los clientes, los archivos entregados deben llevar un formato comercial (DWG, DXF), pero el procesamiento de los archivos debe ser hecho en paquetes y formatos diversos (DGN) -- Por lo tanto, fue necesario diseñar e implementar un formato acompañante que permitió llevar la información que se pierde al usar filtros comerciales (DGN a DXF/DWG) -- Asimismo se crearon módulos de importación y exportación redundantes, que hicieron efectivos dichos atributos -- En el aspecto de generación de rutas de vuelo, se reportan en este artículo la aplicación de algoritmos tradicionales de barrido (peinado) de áreas 2D, a los cuales se agregaron restricciones geométricas (puntos fijos, offsets, orden de los barridos de acuerdo a coordenadas del sitio de partida, etc.) -- Debido a los altos costos de equipos equivalentes, se decidió desarrollar software para traducción de rutas entre formatos GPS y formatos geográficos locales al país -- Ello permite la eliminación de fuentes de error y además facilita la carga del plan de vuelo, a costos mucho menores a los del hardware / software comercial
Resumo:
En Aerofotogrametría, el proceso de restitución (paso de imagen a formato electrónico vectorizado) es realizado por un operador humano, con asistencia de hardware y Software especializado -- Dicho proceso implica la traducción de accidentes geográficos, detalles topográficos, etc., la cual conlleva errores tanto geométricos (precisión) como topológicos (conectividad) de los datos digitales vectorizados -- Adicionalmente, aun si la vectorizacion es perfecta, los editores en etapas subsecuentes deben realizar tareas repetitivas: formateo, marcado, ajuste de convenciones, etc., que por el tamaño de los archivos de datos se hacen prolongadas y propensas al error -- Tanto los procesos de corrección como de formateo y marcado requieren además la ejecución de entradas / salidas con el usuario en el computador, proceso que es particularmente lento -- Esta investigación presenta el desarrollo de herramientas automáticas de (i) detección y corrección de errores comunes en los planos restituidos, (ii) partición y re-agrupación inteligentes de planos grandes, y (iii) formateo y marcado automático -- El desarrollo de software se hace usando el standard AIS (Application Interface Specification), lo que lo hace portable a los modeladores cuya interface AIS haya sido implementada -- El proyecto se desarrolla para la firma AeroEstudios LTDA de Colombia, la cual lo ha incorporado a sus herramientas de procesamiento de información digital
Resumo:
El presente trabajo tiene por objeto precisar los conceptos jurídicos doctrinarios sobre documento, documento electrónico y título valor electrónico, fundamentándonos en la ley modelo de comercio electrónico aprobada por la ONU, la legislación de la Unión Económica Europea, la Ley 527 de l999, el decreto reglamentario No 1.747 del 11 de septiembre de 2000, la legislación complementaria sobre protección de derechos fundamentales, la doctrina y la jurisprudencia. Para ello, diremos que el comercio electrónico se enmarca dentro de la preceptiva del artículo 2 de la Constitución Política que consagra como principios del Estado social de Derecho la libertad de empresa, la intervención del Estado para regular la economía, y la protección de los derechos fundamentales de la persona humana y propiciar el bienestar de todos los ciudadanos. Por ello esta actividad puede ser desarrollada libremente por cualquier persona, siempre que respete los derechos fundamentales, como el derecho a la intimidad, la dignidad, la información, la salud pública, el habeas data, el sistema penal, la seguridad nacional y el interés general. Nos dedicaremos entonces a analizar qué se entiende por documento, características, requisitos de validez, prueba y eficacia de los documentos electrónicos y aplicación en las transacciones de bolsa y similares, el documento electrónico, el título valor electrónico y el tratamiento legal que al documento se le da en nuestra legislación.
Resumo:
O objetivo da revisão foi analisar aspectos conceituais e operacionais de sistemas de vigilância de eventos adversos pós-vacina. Foram incluídos artigos disponíveis em formato eletrônico, publicados entre 1985 e 2009, selecionados nas bases Medline/PubMed, com as palavras-chave: "adverse events following vaccine", "adverse events following vaccine surveillance", "post-marketing surveillance" e "safety vaccine" e "Phase IV clinical trials", e excluídos aqueles com foco em tipos específicos desses eventos. Foram apontados os principais aspectos que justificam a importância dos eventos adversos pós-vacina em saúde pública, os instrumentos que garantem a segurança das vacinas e as finalidades, atributos, tipos, interpretações de dados, limitações e novos desafios da vigilância de eventos adversos pós-vacina, bem como estratégias para aumentar sua sensibilidade. A revisão é concluída com desafios para os próximos anos, visando à segurança e confiabilidade dos programas de vacinação.
Resumo:
Objetivo: Analisar a padronização da coleta do lavado gástrico para diagnóstico de tuberculose em crianças. Métodos: Estudo de revisão sistemática referente aos anos de 1968 a 2008. O levantamento de artigos científicos foi feito nas bases de dados Lilacs, SciELO e Medline, utilizando-se a estratégia de busca ("gastric lavage and tuberculosis" ou "gastric washing and tuberculosis", com o limite "crianças com idade até 15 anos"; e "gastric lavage and tuberculosis and childhood" ou "gastric washing and tuberculosis and childhood"). A análise dos 80 artigos recuperados baseou-se nas informações sobre o protocolo de coleta de lavado gástrico para diagnóstico da tuberculose em crianças: preparo da criança e horas de jejum, horário da coleta, aspiração do resíduo gástrico, volume total aspirado, solução usada para aspiração do conteúdo gástrico, solução descontaminante, solução tampão, e tempo de encaminhamento das amostras para o laboratório. Desses, foram selecionados 14 artigos após análise criteriosa. Resultados: Nenhum artigo explicava detalhadamente todo o procedimento. Em alguns artigos não constavam: quantidade de aspirado gástrico, aspiração antes ou após a instilação de uma solução, solução usada na aspiração gástrica, solução tampão utilizada, tempo de espera entre coleta e processamento do material. Esses resultados mostram inconsistências entre os protocolos de coleta de lavado gástrico. Conclusões: Embora este seja um método secundário no Brasil, reservado a casos que não alcançaram pontuação diagnóstica pelo sistema preconizado pelo Ministério da Saúde, é necessário padronizar a coleta de lavado gástrico para diagnóstico de tuberculose pulmonar na infância.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social para obtenção de grau de mestre em Publicidade e Marketing.
Resumo:
A análise que tem vindo a ser efectuada, paralelamente a experiências diversas de implementação de registos de dados pessoais de utentes das unidades de saúde, em particular no que concerne à protecção da privacidade, enquanto valor intrínseco à pessoa humana, encontra novos contornos face ao recente trabalho realizado no âmbito da Administração Central dos Sistemas de Saúde para a implementação do “Registo de Saúde Electrónico”. Este trabalho pretende analisar a bipolarização de interesses em questão. Por um lado o interesse público de adopção de um sistema de informação único, por outro lado a necessária protecção à privacidade do ser humano.