928 resultados para post and core technique
Resumo:
A novel and fast technique for cryptographic applications is designed and developed using the symmetric key algorithm “MAJE4” and the popular asymmetric key algorithm “RSA”. The MAJE4 algorithm is used for encryption / decryption of files since it is much faster and occupies less memory than RSA. The RSA algorithm is used to solve the problem of key exchange as well as to accomplish scalability and message authentication. The focus is to develop a new hybrid system called MARS4 by combining the two cryptographic methods with an aim to get the advantages of both. The performance evaluation of MARS4 is done in comparison with MAJE4 and RSA.
Resumo:
This paper highlights the prediction of learning disabilities (LD) in school-age children using rough set theory (RST) with an emphasis on application of data mining. In rough sets, data analysis start from a data table called an information system, which contains data about objects of interest, characterized in terms of attributes. These attributes consist of the properties of learning disabilities. By finding the relationship between these attributes, the redundant attributes can be eliminated and core attributes determined. Also, rule mining is performed in rough sets using the algorithm LEM1. The prediction of LD is accurately done by using Rosetta, the rough set tool kit for analysis of data. The result obtained from this study is compared with the output of a similar study conducted by us using Support Vector Machine (SVM) with Sequential Minimal Optimisation (SMO) algorithm. It is found that, using the concepts of reduct and global covering, we can easily predict the learning disabilities in children
Resumo:
Die Miniaturisierung von konventioneller Labor- und Analysetechnik nimmt eine zentrale Rolle im Bereich der allgemeinen Lebenswissenschaften und medizinischen Diagnostik ein. Neuartige und preiswerte Technologieplattformen wie Lab-on-a-Chip (LOC) oder Mikrototalanalysesysteme (µTAS) versprechen insbesondere im Bereich der Individualmedizin einen hohen gesellschaftlichen Nutzen zur frühzeitigen und nichtinvasiven Diagnose krankheitsspezifischer Indikatoren. Durch den patientennahen Einsatz preiswerter und verlässlicher Mikrochips auf Basis hoher Qualitätsstandards entfallen kostspielige und zeitintensive Zentrallaboranalysen, was gleichzeitig Chancen für den globalen Einsatz - speziell in Schwellen- und Entwicklungsländern - bietet. Die technischen Herausforderungen bei der Realisierung moderner LOC-Systeme sind in der kontrollierten und verlässlichen Handhabung kleinster Flüssigkeitsmengen sowie deren diagnostischem Nachweis begründet. In diesem Kontext wird der erfolgreichen Integration eines fernsteuerbaren Transports von biokompatiblen, magnetischen Mikro- und Nanopartikeln eine Schlüsselrolle zugesprochen. Die Ursache hierfür liegt in der vielfältigen Einsetzbarkeit, die durch die einzigartigen Materialeigenschaften begründet sind. Diese reichen von der beschleunigten, aktiven Durchmischung mikrofluidischer Substanzvolumina über die Steigerung der molekularen Interaktionsrate in Biosensoren bis hin zur Isolation und Aufreinigung von krankheitsspezifischen Indikatoren. In der Literatur beschriebene Ansätze basieren auf der dynamischen Transformation eines makroskopischen, zeitabhängigen externen Magnetfelds in eine mikroskopisch veränderliche potentielle Energielandschaft oberhalb magnetisch strukturierter Substrate, woraus eine gerichtete und fernsteuerbare Partikelbewegung resultiert. Zentrale Kriterien, wie die theoretische Modellierung und experimentelle Charakterisierung der magnetischen Feldlandschaft in räumlicher Nähe zur Oberfläche der strukturierten Substrate sowie die theoretische Beschreibung der Durchmischungseffekte, wurden jedoch bislang nicht näher beleuchtet, obwohl diese essentiell für ein detailliertes Verständnis der zu Grunde liegenden Mechanismen und folglich für einen Markteintritt zukünftiger Geräte sind. Im Rahmen der vorgestellten Arbeit wurde daher ein neuartiger Ansatz zur erfolgreichen Integration eines Konzepts zum fernsteuerbaren Transport magnetischer Partikel zur Anwendung in modernen LOC-Systemen unter Verwendung von magnetisch strukturierten Exchange-Bias (EB) Dünnschichtsystemen verfolgt. Die Ergebnisse zeigen, dass sich das Verfahren der ionenbe-schussinduzierten magnetischen Strukturierung (IBMP) von EB-Systemen zur Herstellung von maßgeschneiderten magnetischen Feldlandschaften (MFL) oberhalb der Substratoberfläche, deren Stärke und räumlicher Verlauf auf Nano- und Mikrometerlängenskalen gezielt über die Veränderung der Materialparameter des EB-Systems via IBMP eingestellt werden kann, eignet. Im Zuge dessen wurden erstmals moderne, experimentelle Verfahrenstechniken (Raster-Hall-Sonden-Mikroskopie und rastermagnetoresistive Mikroskopie) in Kombination mit einem eigens entwickelten theoretischen Modell eingesetzt, um eine Abbildung der MFL in unterschiedlichen Abstandsbereichen zur Substratoberfläche zu realisieren. Basierend auf der quantitativen Kenntnis der MFL wurde ein neuartiges Konzept zum fernsteuerbaren Transport magnetischer Partikel entwickelt, bei dem Partikelgeschwindigkeiten im Bereich von 100 µm/s unter Verwendung von externen Magnetfeldstärken im Bereich weniger Millitesla erzielt werden können, ohne den magnetischen Zustand des Substrats zu modifizieren. Wie aus den Untersuchungen hervorgeht, können zudem die Stärke des externen Magnetfelds, die Stärke und der Gradient der MFL, das magnetfeldinduzierte magnetische Moment der Partikel sowie die Größe und der künstlich veränderliche Abstand der Partikel zur Substratoberfläche als zentrale Einflussgrößen zur quantitativen Modifikation der Partikelgeschwindigkeit genutzt werden. Abschließend wurde erfolgreich ein numerisches Simulationsmodell entwickelt, das die quantitative Studie der aktiven Durchmischung auf Basis des vorgestellten Partikeltransportkonzepts von theoretischer Seite ermöglicht, um so gezielt die geometrischen Gegebenheiten der mikrofluidischen Kanalstrukturen auf einem LOC-System für spezifische Anwendungen anzupassen.
Resumo:
This report addresses the problem of acquiring objects using articulated robotic hands. Standard grasps are used to make the problem tractable, and a technique is developed for generalizing these standard grasps to increase their flexibility to variations in the problem geometry. A generalized grasp description is applied to a new problem situation using a parallel search through hand configuration space, and the result of this operation is a global overview of the space of good solutions. The techniques presented in this report have been implemented, and the results are verified using the Salisbury three-finger robotic hand.
Resumo:
Trabajo fronterizo entre arte y filosofía que hace evidente el poder del orden espacio-temporal que se ha establecido como trasfondo de los sistemas de dominación y explotación, que tambien viene siendo enfrentado por los debates post y decoloniales.
Resumo:
Introducción: El ECG es una herramienta básica en el estudio del dolor torácico, no hay evidencia que demuestre si la interpretación electrocardiográfica de los especialistas de medicina interna y emergencias es similar a la de cardiólogos en casos de SCA. El propósito de este estudio es determinar si existe concordancia en interpretación de los hallazgos electrocardiográficos más frecuentes en la fase aguda de los síndromes coronarios. Metodología: Estudio retrospectivo de concordancia diagnóstica electrocardiográfica, realizado en un hospital universitario de cuarto nivel. Se escogieron los hallazgos electrocardiográficos más frecuentes en síndromes coronarios agudos para ser evaluados por 3 diferentes especialidades y se hizo el análisis de concordancia mediante el cálculo estadístico kappa. Resultados: Se analizaron 200 electrocardiogramas aleatorizados, de pacientes con SCA entre noviembre de 2012 a abril de 2013. La edad promedio fue 65,14 años, la mayoría hombres (62,5%), la hipertensión arterial y enfermedad coronaria fueron las comorbilidades más frecuentes. Se encontró un grado de concordancia moderada (k = 0.61 – 0.80, p <0.001) entre cardiólogos vs emergenciólogos y cardiólogos vs internistas, excepto en lesión subendocárdica (k = 0.11 y 0.24 respectivamente), hubo un grado de concordancia débil (k = 0.41 – 0.60, p <0.001) entre emergenciólogos e internistas. El hallazgo en el que hubo grado de concordancia muy bueno (k > 0.81) fue bloqueo de rama izquierda. Conclusión: Existe grado de concordancia moderada en la lectura electrocardiográfica en la mayoría de variables en relación con síndrome coronario agudo entre los especialistas de medicina interna y emergencias al compararlo con cardiólogos.
Resumo:
ANTECEDENTES: El aislamiento de células fetales libres o ADN fetal en sangre materna abre una ventana de posibilidades diagnósticas no invasivas para patologías monogénicas y cromosómicas, además de permitir la identificación del sexo y del RH fetal. Actualmente existen múltiples estudios que evalúan la eficacia de estos métodos, mostrando resultados costo-efectivos y de menor riesgo que el estándar de oro. Este trabajo describe la evidencia encontrada acerca del diagnóstico prenatal no invasivo luego de realizar una revisión sistemática de la literatura. OBJETIVOS: El objetivo de este estudio fue reunir la evidencia que cumpla con los criterios de búsqueda, en el tema del diagnóstico fetal no invasivo por células fetales libres en sangre materna para determinar su utilidad diagnóstica. MÉTODOS: Se realizó una revisión sistemática de la literatura con el fin de determinar si el diagnóstico prenatal no invasivo por células fetales libres en sangre materna es efectivo como método de diagnóstico. RESULTADOS: Se encontraron 5,893 artículos que cumplían con los criterios de búsqueda; 67 cumplieron los criterios de inclusión: 49.3% (33/67) correspondieron a estudios de corte transversal, 38,8% (26/67) a estudios de cohortes y el 11.9% (8/67) a estudios casos y controles. Se obtuvieron resultados de sensibilidad, especificidad y tipo de prueba. CONCLUSIÓN: En la presente revisión sistemática, se evidencia como el diagnóstico prenatal no invasivo es una técnica feasible, reproducible y sensible para el diagnóstico fetal, evitando el riesgo de un diagnóstico invasivo.
Resumo:
Introducción: La Parálisis Cerebral (PC) es la enfermedad neurológica más incapacitante en niños, su historia natural tiende al deterioro motor y funcional. Con este estudio se busca establecer sí las cirugías múltiples de miembros inferiores, en un tiempo quirúrgico, mantienen el nivel motor y funcional. Material y Método: Estudio analítico de cohortes. Se compara un grupo de pacientes sometidos a cirugías múltiples contra un grupo de pacientes no operados, en el Instituto de Ortopedia Infantil Roosevelt. Se evaluaron los pacientes con dos Laboratorios para el Análisis del Movimiento (LAM) y se midieron los desenlaces mediante el cambio en la puntuación del perfil de marcha (GPS) y el nivel funcional motor grueso (GMFCS). Resultados: 109 pacientes cumplieron con los criterios de selección, 67 pacientes fueron sometidos a cirugía y 42 pacientes no. Los pacientes operados mejoraron el GPS promedio (diferencia -1,94; p=0,002) comparado con los pacientes no operados (diferencia 1,74; p=0,001), indicando una mejoría significativa de la cinemática de la marcha. En un modelo de regresión logística predictivo, el paciente que es operado tiene una probabilidad del 78% de mantener su patrón de marcha, mientras que sí no se opera su probabilidad disminuye al 37%. El nivel funcional motor GMFCS no mostró cambios significativos entre los grupos. Discusión: Las cirugías múltiples de miembros inferiores mantienen de manera significativa el patrón de marcha en pacientes con PC. Se destaca el seguimiento de los pacientes mediante el LAM y se sugiere el uso del GPS para valorar resultados en este tipo de pacientes.
Resumo:
El objetivo del presente trabajo es formular, mediante una profunda revisión documental, bibliográfica y empírica, una fundamentación teórica sobre si existe o no incidencia de las prácticas de recursos humanos sobre el bienestar laboral de los empleados, y el que grado en que esta se presenta sobre aspecto como el engagement y la satisfacción laboral. Se realizó la revisión de múltiples estudios empíricos que aportaran evidencia sobre la relación que se presenta entre las principales prácticas de recursos humanos – provisión de personal, formación y desarrollo, promoción de personal, evaluación de desempeño, compensación y pago, y balance trabajo-familia – y el bienestar laboral, representado en el engagement y satisfacción en el trabajo de los empleados. Los resultados de este trabajo indican la existencia de una relación e incidencia de las prácticas de recursos humanos, el bienestar laboral, el engagement y la satisfacción laboral. De igual forma se encontró que estas relaciones son principalmente de carácter positivo, lo cual indica que las organizaciones que desarrollan este tipo de prácticas en su interior, fomentan tanto el desarrollo y la presencia de bienestar laboral en sus empleados, como su perdurabilidad.
Resumo:
Aplicar el método PERT a la función directiva en educación. Explica el proceso de elaboración de un grafo, el cálculo del método PERT y las etapas necesarias en dicho método, analiza la teoría del grafo y su descomposición en niveles y estudia el establecimiento de un programa de investigación. 1) El método PERT es un nuevo instrumento de planificación y control iniciado en América por el almirante W. F. Raborn para los programas Fleet Ballistic Missile (FBM) comúnmente conocidos como sistemas de proyectiles Polaris. 2) El equipo investigador constituido en 1958 le dió el nombre de Program evaluation research task (PERT) que más tarde se cambió por el de Programa evaluation and review technique. 3) El método PERT es una nueva técnica de planificación y control provista de aditamentos cuantitativos. Su fundamento es la red o grado, es decir, la gráfica para representar las operaciones necesarias para alcanzar un objetivo. 4) El grafo o red pert es una evolución del diagrama de barras llamado también diagrama de GANTT por ser este el nombre del iniciador de ese sistema. En dicho sistema las actividades se representan por barras en serie, ya que no comienza una actividad hasta que la anterior ha sido terminada. 5) Sin embargo, los diagramas no ponen de manifiesto la interdependencia de varias actividades, ni determinan el progreso de un proyecto cuando una barra representa un período largo de tiempo. Para cubrir esta dificultad se ideó el diagrama de etapas que descompone las barras en períodos de tiempo más pequeños, representando cada uno de ellos un acontecimiento del trabajo que representaba la barra completa. 6) No obstante, el diagrama de etapas no puede subsanar la primera dificultad del diagrama de barras, es decir, la interdependencia entre barras o etapas. Para ello, se necesita un elemento que una las etapas, y este elemento son las flechas. Así las etapas se transforman en acontecimientos y las flechas representan las actividades o tareas, y el resultado es el grafo. 7) Al ser la base de la planificación el grafo, pueden representarse mediante él, las relaciones existentes en los trabajos que el director escolar debe realizar para alcanzar los objetivos de su proyecto. Aunque para ello se necesita primeramente determinar las actividades que requiere la consecución de los objetivos. . El método PERT puede ser útil en la dirección por tres razones: 1) Hay una continua necesidad de comprobar la eficacia de las operaciones a través de controles más rápidos, directos y unidos y especialmente ver los resultados tangibles de las inversiones en la procesación de los datos. 2) La dirección desea comprobar su capacidad para detectar problemas en curso a largo plazo, discutir las desviaciones sufridas e intentar prevenir sus futuras consecuencias. 3) Los directores se enfrentan con la necesidad de reducir el tiempo y el coste de los programas de desarrollo. Es totalmente necesario que el director establezca un plan de sus actividades durante el curso.
Resumo:
Na presente investigação procura-se descobrir qual a influência dos estilos de Liderança Transformacional e Transacional, propostos por Bass (1985), no Modelo das Três Componentes, proposto por Meyer e Allen (1991). Procura-se, ainda, descobrir se esta relação é mediada pela Satisfação com a Liderança, desdobrada entre a faceta Relações Humanas e a faceta Técnica, conforme Weiss, Dawis, England e Lofquist (1967). Foi aplicado um questionário a uma amostra de conveniência de 102 participantes de diversas empresas. As principais conclusões são que os estilos de Liderança determinam o Comprometimento Organizacional, e a Satisfação com o Líder tem uma relação de mediação entre os estilos de Liderança e o Comprometimento Organizacional. São, também, discutidas as implicações teóricas e práticas dos resultados.
Resumo:
O género Giardia inclui espécies com potencial zoonótico e com uma distribuição mundial, e em que alguns genótipos de Giardia duodenalis são responsáveis anualmente por milhares de novos casos em humanos. Existem vários ciclos de transmissão, sendo a água de consumo, por contaminação fecal de origem animal, uma das principais fontes de infecção humana. Neste estudo foram colhidas 162 amostras fecais de animais de quatro origens diferentes (Zoológico = 55; Produção = 25; Doméstico = 5; Canil = 77) que foram testadas por duas técnicas coprológicas diferentes, a técnica de flutuação com sacarose e a técnica de sedimentação com formol-acetato. Para a implementação de Nested PCR foram testados vários genes, β-giardina, Glutamato desidrogenase e 18SrRNA, ocorrendo apenas amplificação das amostras com o gene 18SrRNA. Com esta técnica foram analisadas 26 amostras, que incluía a treze positivas à microscopia e as restantes escolhidas aleatoriamente. Este trabalho permitiu determinar a ocorrência de Giardia spp. através das técnicas coprológicas em treze animais de diferentes origens e verificar que o número de animais de canil positivos não foi o esperadas de acordo com o descrito na literatura que refere ser este o grupo com maior prevalência. Este estudo também permitiu uma comparação entre os dois métodos de concentração de quistos de Giardia spp., com maior recuperação utilizando a técnica de flutuação com sacarose. Através da técnica molecular confirmaram-se dez dos positivos encontrados por microscopia e ainda se detectaram dois novos positivos.
Resumo:
A parallel hardware random number generator for use with a VLSI genetic algorithm processing device is proposed. The design uses an systolic array of mixed congruential random number generators. The generators are constantly reseeded with the outputs of the proceeding generators to avoid significant biasing of the randomness of the array which would result in longer times for the algorithm to converge to a solution. 1 Introduction In recent years there has been a growing interest in developing hardware genetic algorithm devices [1, 2, 3]. A genetic algorithm (GA) is a stochastic search and optimization technique which attempts to capture the power of natural selection by evolving a population of candidate solutions by a process of selection and reproduction [4]. In keeping with the evolutionary analogy, the solutions are called chromosomes with each chromosome containing a number of genes. Chromosomes are commonly simple binary strings, the bits being the genes.
Resumo:
BACKGROUND: Serial Analysis of Gene Expression (SAGE) is a powerful tool for genome-wide transcription studies. Unlike microarrays, it has the ability to detect novel forms of RNA such as alternatively spliced and antisense transcripts, without the need for prior knowledge of their existence. One limitation of using SAGE on an organism with a complex genome and lacking detailed sequence information, such as the hexaploid bread wheat Triticum aestivum, is accurate annotation of the tags generated. Without accurate annotation it is impossible to fully understand the dynamic processes involved in such complex polyploid organisms. Hence we have developed and utilised novel procedures to characterise, in detail, SAGE tags generated from the whole grain transcriptome of hexaploid wheat. RESULTS: Examination of 71,930 Long SAGE tags generated from six libraries derived from two wheat genotypes grown under two different conditions suggested that SAGE is a reliable and reproducible technique for use in studying the hexaploid wheat transcriptome. However, our results also showed that in poorly annotated and/or poorly sequenced genomes, such as hexaploid wheat, considerably more information can be extracted from SAGE data by carrying out a systematic analysis of both perfect and "fuzzy" (partially matched) tags. This detailed analysis of the SAGE data shows first that while there is evidence of alternative polyadenylation this appears to occur exclusively within the 3' untranslated regions. Secondly, we found no strong evidence for widespread alternative splicing in the developing wheat grain transcriptome. However, analysis of our SAGE data shows that antisense transcripts are probably widespread within the transcriptome and appear to be derived from numerous locations within the genome. Examination of antisense transcripts showing sequence similarity to the Puroindoline a and Puroindoline b genes suggests that such antisense transcripts might have a role in the regulation of gene expression. CONCLUSION: Our results indicate that the detailed analysis of transcriptome data, such as SAGE tags, is essential to understand fully the factors that regulate gene expression and that such analysis of the wheat grain transcriptome reveals that antisense transcripts maybe widespread and hence probably play a significant role in the regulation of gene expression during grain development.
Resumo:
DIGE is a protein labelling and separation technique allowing quantitative proteomics of two or more samples by optical fluorescence detection of differentially labelled proteins that are electrophoretically separated on the same gel. DIGE is an alternative to quantitation by MS-based methodologies and can circumvent their analytical limitations in areas such as intact protein analysis, (linear) detection over a wide range of protein abundances and, theoretically, applications where extreme sensitivity is needed. Thus, in quantitative proteomics DIGE is usually complementary to MS-based quantitation and has some distinct advantages. This review describes the basics of DIGE and its unique properties and compares it to MS-based methods in quantitative protein expression analysis.