846 resultados para Detecção automática
Resumo:
Resumen en inglés. Resumen tomado de la publicación
Resumo:
La sociedad moderna se enfrenta diariamente a una avalancha de información de crecimiento exponencial, debida a la generación constante de nuevas fuentes de información que la producen de forma muchas veces automática y, por tanto, a un ritmo capaz de desbordar a cualquier individuo. Este crecimiento de la información generada hace necesario un aumento de la capacidad de filtrado y asimilación para afrontar la avalancha, seleccionar y aprovechar de ella lo necesario. Los objetivos de este trabajo son estudiar las arquitecturas existentes con vistas a crear un agente inteligente capaz de integrarse en ellas de forma eficaz; facilitar la intercomunicabilidad de sistemas aunque utilicen distintos códigos de representación de los objetos docentes que intercambian; ofrecer una capa de abstracción superior con funcionalidades comunes disponibles para todos los sistemas que cubran las necesidades de comunicación; basar la propuesta en estándares reconocidos y sólidos; estudiar un modelo de nomenclatura para la especificación de las acciones a realizar por el agente en las diversas situaciones que se presenten y para nombrar e identificar las diferentes entidades participativas en todo el proceso, así como sus relaciones. Para conseguir estos objetivos se realiza un repaso al estado del arte en dos áreas principales, los sistemas de teleformación y los agentes inteligentes.. El método de trabajo tiene los siguientes pasos: desarrollo detallado y concreto del objetivo del que se obtendrán las necesidades a cubrir a partir de los elementos actuales para alcanzar dicho objetivo; análisis Particularizado y Profundo de los componentes tecnológicos implicados, adaptados al objetivo, y las necesidades a cubrir con estos componentes; LMS y arquitecturas que deben ser interconectadas. Este estudio será vital para establecer las necesidades y posibilidades. 99 estándares de intercomunicación de LMS, sobre los que se realizará la abstracción a un nivel. Agentes, encargados de la intercomunicación y soporte de la arquitectura que habilitará a los LMS para la interconexión. Enunciado y justificación de la propuesta. En su forma definitiva tras el desarrollo y aplicación de los componentes. Estudio de Viabilidad de la propuesta que llevará a decidir si es factible su implantación y, de no serlo, que habría de cambiar en los sistemas para que lo fuera..
Resumo:
Esta investigación propone un modelo computacional de lectura que elabora una representación de la semántica de un texto como resultado de un proceso en el tiempo. Dicha representación posee una estructura que permite la descripción de las relaciones entre los conceptos leídos y su nivel de significado en cada momento del proceso de lectura.. En este trabajo se presenta el sistema SILC, Sistema de Indexación Mediante Lectura Cognitiva. Éste intenta simular, en parte, procesos cognitivos de alto nivel que operan en el tiempo. En primer lugar, construye una red de asociación conceptual como una memoria lingüística base a partir de una colección de textos que representan el espacio de conocimiento semántico. A continuación genera representaciones de los textos de entrada como redes de conceptos con niveles de activación, que recogen el nivel de significación semántica de los mismos. Para ello, este modelo utiliza el conocimiento semántico lingüístico, previamente construido, y realiza inferencias sobre el mismo mediante la propagación por la red de la activación de los conceptos leídos secuencialmente. La representación generada se emplea posteriormente para indexar documentos para clasificarlos automáticamente. Se realizan experimentos para comparar el modelo con sujetos humanos, tanto durante la lectura, mediante la predicción o inferencia de conceptos, como al final de la misma, mediante la comparación con resúmenes generados por los sujetos.. Los resultados muestran que el sistema es adecuado para modelar de manera aproximada el proceder humano en la lectura y confirman la hipótesis de partida de SILC que considera que se realizan mejor las tareas prácticas del lenguaje cuanto más se asemeje el sistema a los seres humanos. También se demuestra que el sistema es adecuado como marco experimental de validación de hipótesis relacionadas con aspectos cognitivos de la lectura. En otros experimentos de aplicación práctica se observa que, una vez que se optimizan sus parámetros, el modelo de lectura implementado hace a SILC adecuado para su aplicación a tareas reales de procesamiento de lenguaje natural..
Resumo:
Notas al final
Resumo:
El Mecanismo Semántico aplicado a la documentación automática, es un esquema matemático que unifica diferentes aspectos del Reconocimiento de Formas, Lenguajes Formales y Diagnóstico Automático. Sin embargo se presenta sólo el Mecanismo proyectado en su aplicación al problema de la Clasificación e Interpretación Automática de Documentos. Se señalan las causas de esta delimitación. Por otro lado se tratan los siguientes puntos: en primer lugar se presenta un modelo para un posterior desarrollo, que introduce la noción de proyectividad de una manera natural en el concepto de diccionario, fundamental en la Lingüística matemática. En segundo lugar se analiza el teorema 2.10, de gran interés en cuestiones relacionadas con los algoritmos paralelos. En este mismo punto se define un modelo aplicable a diversos modelos analíticos lingüísticos. En tercer lugar se presenta un modelo que contiene, como caso particular, el algoritmo de Ferrari. Y por último se aplica el mecanismo a la clasificación de los documentos, previa interpretación de los conceptos.
Resumo:
Análisis de la problemática en torno a la producción automática de resúmenes de textos y artículos. Pese a los adelantos en tecnologías de la información, la producción de abstractos de alta calidad todavía tiene que hacerse manualmente. Esto representa un alto coste para numerosas empresas como editoriales. Como alternativas a la producción manual de abstractos tenemos el que los abstractos sean preparados por los propios autores como prerrequisitos a la publicación de sus artículos, o mecanizar su producción. Se describe una técnica nueva para producir automáticamente resúmenes. Primero se repasan las funciones de un resumen, que son: anunciamiento, filtrado, sustitución, y búsqueda retrospectiva. Posteriormente se realiza una tipología de resúmenes: indicativo, informativo, crítico y extractos. Además, los abstractos que producimos automáticamente se caracterizan por: una dimensión aproximada del 10 por 100 del original; se utiliza en el abstracto la misma terminología del original, es decir, producimos extractos con la misma fraseología escrita por el autor; se procura excluir en el extracto datos numéricos, expresiones cardinales o sentencias de un valor indefinido; y se evita incluir en el extracto observaciones preliminares, citaciones, notas al pie de página etc. Se analizan algunos de los métodos empleados para la producción de textos automáticamente, como el método de colocación, el método de sugestión, el método de titulación, las referencias intercruzadas de frases, los criterios de frecuencia y la existencia de un diccionario previo con términos.
Resumo:
Monográfico con el título: 'Avances tecnológicos digitales en metodologías de innovación docente en el campo de las Ciencias de la Salud en España'. Resumen basado en el de la publicación
Resumo:
Contiene : 1-Grupo de automática industrial y telemática : memoria final, 2- Un disquete y 3- Apuntes básicos sobre DELPHI (este dossier de lenguaje de programación ha sido realizado individualmente por uno de los profesores). Premio a la Innovación Educativa, 1996-97. Anexo Memoria en C-Innov. 93
Resumo:
Aquest text pretén ser una guia útil per als estudiants dels Graus en Enginyeria Mecànica, en Enginyeria electrònica Industrial i Automàtica, i en Enginyeria Elèctrica. El document s’estructura en vuit temes organitzats en tres blocs. El primer bloc és una introducció a les propietats magnètiques dels materials i les seves aplicacions. El segon bloc versa sobre les propietats elèctriques dels materials i, finalment, el tercer bloc és una breu descripció de la superconductivitat. Per a cada tema s’estableixen les competències específiques que s’han d’assolir, es desenvolupen de forma esquemàtica els continguts i s’adjunten exemples resolts de problemes. Al final de cada tema s’inclou un resum dels continguts i al final de cada bloc una col·lecció de qüestions i problemes. Aquests apunts pretenen ser una breu recopilació dels continguts bàsics de l’assignatura. Al final dels apunts, trobareu una bibliografia recomanada per tal de desenvolupar exhaustivament la matèria
Resumo:
La enseñanza y evaluación automática a través de un sistema Computer Based Assessment (CBA) requiere de software especializado que se adapte a la tipología de actividades a tratar y evaluar. En esta tesis se ha desarrollado un entorno CBA que facilita el aprendizaje y evaluación de los principales temas de una asignatura de bases de datos. Para ello se han analizado las herramientas existentes en cada uno de estos temas (Diagramas Entidad/Relación, diagramas de clases, esquemas de bases de datos relacionales, normalización, consultas en álgebra relacional y lenguaje SQL) y para cada uno de ellos se ha analizado, diseñado e implementado un módulo de corrección y evaluación automática que aporta mejoras respecto a los existentes. Estos módulos se han integrado en un mismo entorno al que hemos llamado ACME-DB.
Resumo:
A miocardiopatia hipertrófica (MH) é a doença cardíaca genética mais comum, afectando 1:500 indivíduos, apresentando um padrão de transmissão autossómico dominante, com mutações associadas a genes sarcoméricos e não sarcoméricos. A MH apresenta uma variedade de manifestações clínicas, desde indivíduosassintomáticos a indivíduos que manifestam uma progressão da severidade dos sintomas, podendo nalguns casos ocorrer morte súbita. O diagnóstico clínico é realizado por Electrocardiograma e Ecocardiograma. O diagnóstico genético baseia-se na Sequenciação Automática (SA) dos 5 principais genes sarcoméricos MYBPC3, MYH7, TNNT2, TNNI3 e MYL2, sendo considerada uma metodologia bastante dispendiosa e demorada e que não permite a identificação de mutações em cerca de 1/3 dos individuos. A Genotipagem por iPLEX MassARRAY revela-se uma boa alternativa à SA no diagnóstico genético de MH, uma vez que permite a análise de várias amostras em simultâneo, para um elevado número de mutações, num único ensaio, com uma maior rentabilidade de tempo e recursos. Este trabalho teve como objectivo a optimização e a validação desta metodologia, na detecção de 541 mutações em 33 genes, tendo-se verificado que 29 % das reacções multiplex necessitam de ser revistas, quer pelo desenho de novos conjuntos de primers, quer pela sua relocalização no chip.
Resumo:
A través de este trabajo de investigación se pretende diseñar un proceso de devolución automática de los saldos a favor de Impuesto a la Renta de personas naturales en relación de dependencia, sin la necesidad de que el contribuyente presente una petición o reclamo de los valores pagados en exceso o indebidamente; esta propuesta pretende que la Administración Tributaria pueda brindar nuevas alternativas para la devolución de saldos a favor de Impuesto a la Renta, realizando controles previos y que la devolución de los valores no constituyan un riesgo para la Administración. Se hace necesario en primera instancia una evaluación de la normativa legal y los procedimientos actuales que regulan la devolución de Impuesto a la Renta y en función de llevar a cabo esta propuesta es necesaria la utilización y aplicación de conceptos de reingeniería de procesos que permitirán mejoras sustanciales en la atención de este tipo de devoluciones. Con el desarrollo de esta propuesta se pretende mejorar, ampliar, integrar y validar la información que se obtiene de los contribuyentes y de sus agentes de retención; disminuir los costos directos e indirectos en los que la Administración Tributaria incurre para poder responder la atención de las solicitudes de pago indebido y en exceso de Impuesto a la Renta; y a su vez permitirá brindar a los contribuyentes un servicio más eficiente.
Resumo:
A dengue é a mais importante doença viral transmitida por mosquitos, no que diz respeito à morbidade e mortalidade, que afeta os seres humanos. Este vírus é transmitido pelos vetores Aedes albopictus e Aedes aegypti, este último é o principal vetor nas Américas. O controle da doença se baseia na vigilância laboratorial e vigilância entomológica. A vigilância laboratorial visa aprimorar a capacidade do diagnóstico, detectando precocemente a circulação viral e monitorando os sorotipos circulantes. Dentro deste tipo de vigilância, a RT-PCR é um método bastante usado no diagnóstico da doença em humanos e mosquitos, porém, a má conservação do material pode comprometer a integridade do RNA e trazer resultados falso-negativos. O desenvolvimento de melhores métodos de vigilância do vírus dengue (DENV) em mosquitos é de grande valor para os programas de controle. Desta maneira, o presente projeto visou otimizar a técnica de RT-PCR Multiplex para detecção de DENV em amostras de Ae. aegypti infectadas artificialmente pelo vírus. Primers que amplificam uma região de 80 pb do gene rpL8 de mosquito foram desenhados no site Primer3 e avaliados na ferramenta online Multiple Primer Analyzer, junto com primers que amplificam os sorotipos DENV. Não houve competição de primers e foi observado bandas distintas no gel de agarose. Foi avaliado o efeito de diferentes formas de preservação do material genético das amostras (RNAlater®, freezer -80°C e nitrogênio líquido) por 7 dias, onde não houve diferenças significativas em relação à integridade do RNA. O efeito de diferentes formas de extração de RNA (Kit da QIAGEN® , TRIzol® e Chomczymski-Sacchi) também foi avaliado e o método ChomczymskiSacchi obteve o melhor desempenho. A otimização desta técnica permitirá uma maior confiabilidade nos resultados, já que além da detecção dos sorotipos, haverá uma confirmação da qualidade do RNA, aprimorando a capacidade do diagnóstico e auxiliando a prevenção e controle da transmissão da dengue.
Resumo:
A tuberculose (TB) é uma doença infecto-contagiosa causada pelo bacilo Mycobacterium tuberculosis e que permanece como um importante problema de saúde pública mundial, sendo a TB pulmonar a forma mais comum de apresentação da doença. O diagnóstico precoce e tratamento adequado são essenciais para a eficácia dos programas públicos de controle da TB. Novos metodologias mais rápidas, sensíveis e específicas, como a reação em cadeia da polimerase (PCR), vem sendo propostas no diagnóstico da doença. O objetivo desse estudo foi avaliar o desempenho de duas PCR, a PCR em tempo real (qPCR) e a Nested PCR em único tubo (STNPCR), em diferentes amostras biológicas, no diagnóstico da tuberculose pulmonar, além de compará-las com as metodologias convencionais (baciloscopia e cultura) e entre si. Para isso foram analisados 125 pacientes que tiveram amostras de sangue (125 amostras de plasma e 116 amostras de PBMC), urina (n=125) e escarro (n=125) coletadas, totalizando a análise de 491 amostras biológicas. Amostras de escarro e urina foram descontaminadas pelo método de Petroff NAOH 4 por cento modificado e semeadas em meio de cultura Lõwenstein-Jensen (LJ), enquanto as amostras de sangue eram separadas em plasma e PBMC. Após processamento, deu-se a extração de DNA através do kit comercial da Qiagen seguida de amplificação pelas duas metodologias de PCR. Para análise estatística calculou-se a sensibilidade, especificidade, valores preditivos positivo e negativo e índice kappa das técnicas. A STNPCR apresentou, em amostras de sangue, sensibilidade de 26,3 por cento e especificidade de 97,7 por cento. Em amostras de urina observou-se uma S = 7,9 por cento e E = 98,9 por cento e em escarro S = 21,1 por cento e E = 98,9 por cento. Quando analisadas as asmotras em paralelo, a sensibilidade da STNPCR foi igual a 44,7 por cento enquanto sua especificidade foi 97,7 por cento. Já a qPCR, em amostras de sangue, obteve sensibilidade igual a 26,3 por cento e especificidade de 95,4 por cento. Em amostras de urina a sensibilidade obtida foi 47,4 por cento e a especificidade 79,3 por cento e, em escarro, S = 36,8 por cento e E = 95,4 por cento. Quando analisada em paralelo, a sensibilidade da qPCR foi 65,8 por cento e a especificidade foi 79,3 por cento. A baciloscopia de escarro apresentou sensibilidade de 41,7 por cento e especificidade de 100 por cento, enquanto as culturas em urina e escarro apresentaram sensibilidade e especificidade, respectivamente, de 10,5 por cento e 100 por cento e 60,5 por cento e 96,6 por cento. Pode-se concluir que a qPCR apresentou melhor desempenho quando comparada à STNPCR e também bom desempenho quando comparada às metodologias convencionais, e que quando analisa-se mais de um tipo de amostras biológica, a eficácia das técnicas é aumentada. Espera-se que com a utilização dessa técnica molecular, seja possível a melhor elucidação dos casos de TB pulmonar, promovendo maior taxa de tratamento dos pacientes e menor risco de transmissão da doença