910 resultados para cs
Resumo:
The underlying assumptions for interpreting the meaning of data often change over time, which further complicates the problem of semantic heterogeneities among autonomous data sources. As an extension to the COntext INterchange (COIN) framework, this paper introduces the notion of temporal context as a formalization of the problem. We represent temporal context as a multi-valued method in F-Logic; however, only one value is valid at any point in time, the determination of which is constrained by temporal relations. This representation is then mapped to an abductive constraint logic programming framework with temporal relations being treated as constraints. A mediation engine that implements the framework automatically detects and reconciles semantic differences at different times. We articulate that this extended COIN framework is suitable for reasoning on the Semantic Web.
Resumo:
Modeling and simulation permeate all areas of business, science and engineering. With the increase in the scale and complexity of simulations, large amounts of computational resources are required, and collaborative model development is needed, as multiple parties could be involved in the development process. The Grid provides a platform for coordinated resource sharing and application development and execution. In this paper, we survey existing technologies in modeling and simulation, and we focus on interoperability and composability of simulation components for both simulation development and execution. We also present our recent work on an HLA-based simulation framework on the Grid, and discuss the issues to achieve composability.
Resumo:
Co-training is a semi-supervised learning method that is designed to take advantage of the redundancy that is present when the object to be identified has multiple descriptions. Co-training is known to work well when the multiple descriptions are conditional independent given the class of the object. The presence of multiple descriptions of objects in the form of text, images, audio and video in multimedia applications appears to provide redundancy in the form that may be suitable for co-training. In this paper, we investigate the suitability of utilizing text and image data from the Web for co-training. We perform measurements to find indications of conditional independence in the texts and images obtained from the Web. Our measurements suggest that conditional independence is likely to be present in the data. Our experiments, within a relevance feedback framework to test whether a method that exploits the conditional independence outperforms methods that do not, also indicate that better performance can indeed be obtained by designing algorithms that exploit this form of the redundancy when it is present.
Resumo:
Biotinylated and non-biotinylated copolymers of ethylene oxide (EO) and 2-(diethylamino)ethyl methacrylate (DEAEMA) were synthesized by the atom transfer radical polymerization technique (ATRP). The chemical compositions of the copolymers as determined by NMR are represented by PEO₁₁₃PDEAEMA₇₀ and biotin-PEO₁₀₄PDEAEMA₉₃ respectively. The aggregation behavior of these polymers in aqueous solutions at different pHs and ionic strengths was studied using a combination of potentiometric titration, dynamic light scattering (DLS), static light scattering (SLS), and transmission electron microscopy (TEM). Both PEO-b-PDEAEMA and biotin-PEO-b-PDEAEMA diblock copolymers form micelles at high pH with hydrodynamic radii (Rh) of about 19 and 23 nm, respectively. At low pH, the copolymers are dispersed as unimers in solution with Rh of about 6-7 nm. However, at a physiological salt concentration (cs) of about 0.16M NaCl and a pH of 7-8, the copolymers form large loosely packed Guassian chains, which were not present at the low cs of 0.001M NaCl. The critical micelle concentrations (CMC) and the cytotoxicity of the copolymers were investigated to determine a suitable polymer concentration range for future biological applications. Both PEO-b-PDEAEMA and biotin-PEO-b-PDEAEMA diblock copolymers possess identical CMC values of about 0.0023 mg/g, while the cytotoxicity test indicated that the copolymers are not toxic up to 0.05mg/g (> 83% cell survival at this concentration).
Resumo:
Memory errors are a common cause of incorrect software execution and security vulnerabilities. We have developed two new techniques that help software continue to execute successfully through memory errors: failure-oblivious computing and boundless memory blocks. The foundation of both techniques is a compiler that generates code that checks accesses via pointers to detect out of bounds accesses. Instead of terminating or throwing an exception, the generated code takes another action that keeps the program executing without memory corruption. Failure-oblivious code simply discards invalid writes and manufactures values to return for invalid reads, enabling the program to continue its normal execution path. Code that implements boundless memory blocks stores invalid writes away in a hash table to return as the values for corresponding out of bounds reads. he net effect is to (conceptually) give each allocated memory block unbounded size and to eliminate out of bounds accesses as a programming error. We have implemented both techniques and acquired several widely used open source servers (Apache, Sendmail, Pine, Mutt, and Midnight Commander).With standard compilers, all of these servers are vulnerable to buffer overflow attacks as documented at security tracking web sites. Both failure-oblivious computing and boundless memory blocks eliminate these security vulnerabilities (as well as other memory errors). Our results show that our compiler enables the servers to execute successfully through buffer overflow attacks to continue to correctly service user requests without security vulnerabilities.
Resumo:
Lecture 4: Ontological Hypertext and the Semantic Web Contains Powerpoint Lecture slides and Hypertext Research Papers: Conceptual linking: Ontology-based Open Hypermedia (Carr et al. 2001); CS AKTiveSpace: Building a Semantic Web Application (Glaser et al., 2004); The Semantic Web Revisited (Shadbolt, Hall and Berners-Lee, 2006); Mind the Semantic Gap (Millard et al., 2005).
Resumo:
A guide to writing formal technical reports for IT and CS students
Resumo:
En la Enfermedad Coronaria (EC) existen factores genéticos, socioculturales, medioambientales y raciales adicionales a los factores de riesgo cardiovascular mayores que podrían influir en su presentación. Se desconoce el impacto de la raza en la severidad de la enfermedad coronaria en los pacientes extranjeros que son enviados a nuestro Servicio. Objetivos: Comparar la severidad de la EC multivaso en una población de pacientes de las Antillas y Nacionales, pareados por la escala Framingham. Metodología: Realizamos un estudio de corte transversal, comparando pacientes colombianos contra pacientes provenientes de las Antillas holandesas con similares factores de riesgo según escala de Framingham, catalogándolos por grupos de riesgo bajo, intermedio, alto y muy alto. Todos con EC severa multivaso documentada por angiografía coronaria desde enero del 2009 hasta Junio de 2011. Se excluyeron pacientes con antecedentes de intervención percutánea o quirúrgica previa. Resultados: Ingresaron 115 pacientes internacionales y 115 pacientes nacionales. La relación hombres/mujeres 3:1. La proporción de grupos de riesgo fue de bajo riesgo 2.5%, intermedio 15%, alto 19.3%, y muy alto 63.4%. El Syntax Score en pacientes nacionales fue 14.3+/-7.4 y en internacionales 22.2+/-10.5 p: 0.002. Conclusiones: En pacientes provenientes de las Antillas Holandesas, valorados en nuestra institución, se observó una mayor severidad de la enfermedad coronaria comparada con una población nacional con factores de riesgo similares. Estos hallazgos sugieren la influencia de la raza y factores genéticos en la severidad y extensión de la EC
Resumo:
Objetivó: Caracterizar los pacientes con heridas cardiacas penetrantes grado II a VI, describir las características del trauma, tratamiento quirúrgico, evolución clínica e identificar los factores asociados a un desenlace. Metodología: Se diseñó un estudio de asociación en 308 pacientes que ingresaron a cirugía con diagnóstico de herida penetrante de corazón entre enero de 1999 y octubre de 2009. Se excluyeron 68 casos. La serie analizada incluyó 240 pacientes con heridas cardiacas. Se analizaron variables demográficas, clínicas, quirúrgicas y de evolución, tabulados en EXCEL® y analizados en SPSS 20®. Resultados: El promedio de edad fue 27.8 años, principalmente hombres (96%), lesiones por arma cortopunzante 93% y un 7% por proyectil arma de fuego. El estado hemodinámico al ingreso (según Ivatury) fue normal 44%; Shock profundo 34%; Agónicos 18% y 3% fatales. El 67% (n=161) presentaron taponamiento cardiaco. Los grados de lesión cardiaca según la clasificación OIS-AAST fueron: grado II 33%, grado III 13%, grado IV 29%, grado V 22% y grado VI 3%. La ventana pericárdica fue el método diagnóstico confirmatorio de lesión en 63% y las incisiones de abordaje quirúrgico fueron la esternotomía 63% y la toracotomía anterolateral 35%. La mortalidad fue 15% (n=36). Las diferencias en mortalidad entre el estado hemodinámico al inicio de cirugía, mecanismo de lesión y grado de herida, demostraron ser estadísticamente significativas (valor de p<0.001). Conclusiones: El estado hemodinámico y las heridas por arma de fuego son factores asociados a mortalidad. La ventana pericárdica subxifoidea favorece la preferencia y buenos resultados de la esternotomía como vía de abordaje quirúrgico.
Resumo:
Introducción: El glaucoma representa la tercera causa de ceguera a nivel mundial y un diagnóstico oportuno requiere evaluar la excavación del nervio óptico que está relacionada con el área del mismo. Existen reportes de áreas grandes (macrodiscos) que pueden ser protectoras, mientras otros las asocian a susceptibilidad para glaucoma. Objetivo: Establecer si existe asociación entre macrodisco y glaucoma en individuos estudiados con Tomografía Optica Coherente (OCT ) en la Fundación Oftalmológica Nacional. Métodos: Estudio transversal de asociación que incluyó 25 ojos con glaucoma primario de ángulo abierto y 74 ojos sanos. A cada individuo se realizó examen oftalmológico, campo visual computarizado y OCT de nervio óptico. Se compararon por grupos áreas de disco óptico y número de macrodiscos, definidos según Jonas como un área de la media más dos desviaciones estándar y según Adabache como área ≥3.03 mm2 quien evaluó población Mexicana. Resultados: El área promedio de disco óptico fue 2,78 y 2,80 mm2 glaucoma Vs. sanos. De acuerdo al criterio de Jonas, se observó un macrodisco en el grupo sanos y según criterio de Adabache se encontraron ocho y veinticinco macrodiscos glaucoma Vs. sanos. (OR=0,92 IC95%=0.35 – 2.43). Discusión: No hubo diferencia significativa (P=0.870) en el área de disco entre los dos grupos y el porcentaje de macrodiscos para los dos grupos fue similar, aunque el bajo número de éstos no permitió concluir en términos estadísticos sobre la presencia de macrodisco y glaucoma.
Resumo:
Para comprender el fenómeno social que se presentó tanto en Libia como en Siria, es necesario exponer las variables y explicar la diferenciación de procesos, en las medidas que toma el Consejo de Seguridad de la ONU (CS), en cada uno pese a la similitud de necesidades de la población civil. Este estudio de caso busca analizar el papel de los Intereses Nacionales en la toma de decisiones, preventivas y coercitivas, del Consejo de Seguridad en materia de Derechos Humanos, estudiando el caso de Libia y Siria de finales de 2010 a inicios de 2012.
Resumo:
El acelerado desarrollo experimentado en los últimos años por las TIC, ha generado procesos de transformación fundamentales en las relaciones humanas, la economía, la cultura, la política e inclusive las costumbres. Tomando como punto de partida el concepto de Manuel Castells (2002), en el que manifiesta que la revolución de las TIC dada su capacidad de penetración en todo el ámbito de la actividad humana, entre ellas la obtención de conocimiento, es el punto de entrada para analizar la complejidad de la nueva economía, la sociedad y la cultura en formación, éste proyecto de investigación tiene como objetivos: i) Determinar el impacto que tiene la Sociedad del Conocimiento en el mercado accionario en Colombia y ii) Establecer por qué se considera al mercado accionario como un mercado especulativo. El documento inicia con un marco teórico en el que se analizan los conceptos que responden a dos tradiciones de pensamiento distintas: La Sociedad de la Información y la Sociedad del Conocimiento, y se abordan los rasgos centrales que actualmente las definen; analizando las transformaciones que llevaron a su origen y el modo en que se ha intentado unificar sus características bajo un único término. Seguidamente se realiza una contextualización del mercado accionario en Colombia haciendo una descripción de sus principales participantes y las características de cada uno de ellos. Posteriormente se describe el impacto que tienen los principales índices bursátiles utilizados en el mercado accionario y por último se hace una descripción desde diversos autores respecto del concepto de especulación.
Resumo:
Abstract Big data nowadays is a fashionable topic, independently of what people mean when they use this term. But being big is just a matter of volume, although there is no clear agreement in the size threshold. On the other hand, it is easy to capture large amounts of data using a brute force approach. So the real goal should not be big data but to ask ourselves, for a given problem, what is the right data and how much of it is needed. For some problems this would imply big data, but for the majority of the problems much less data will and is needed. In this talk we explore the trade-offs involved and the main problems that come with big data using the Web as case study: scalability, redundancy, bias, noise, spam, and privacy. Speaker Biography Ricardo Baeza-Yates Ricardo Baeza-Yates is VP of Research for Yahoo Labs leading teams in United States, Europe and Latin America since 2006 and based in Sunnyvale, California, since August 2014. During this time he has lead the labs in Barcelona and Santiago de Chile. Between 2008 and 2012 he also oversaw the Haifa lab. He is also part time Professor at the Dept. of Information and Communication Technologies of the Universitat Pompeu Fabra, in Barcelona, Spain. During 2005 he was an ICREA research professor at the same university. Until 2004 he was Professor and before founder and Director of the Center for Web Research at the Dept. of Computing Science of the University of Chile (in leave of absence until today). He obtained a Ph.D. in CS from the University of Waterloo, Canada, in 1989. Before he obtained two masters (M.Sc. CS & M.Eng. EE) and the electronics engineer degree from the University of Chile in Santiago. He is co-author of the best-seller Modern Information Retrieval textbook, published in 1999 by Addison-Wesley with a second enlarged edition in 2011, that won the ASIST 2012 Book of the Year award. He is also co-author of the 2nd edition of the Handbook of Algorithms and Data Structures, Addison-Wesley, 1991; and co-editor of Information Retrieval: Algorithms and Data Structures, Prentice-Hall, 1992, among more than 500 other publications. From 2002 to 2004 he was elected to the board of governors of the IEEE Computer Society and in 2012 he was elected for the ACM Council. He has received the Organization of American States award for young researchers in exact sciences (1993), the Graham Medal for innovation in computing given by the University of Waterloo to distinguished ex-alumni (2007), the CLEI Latin American distinction for contributions to CS in the region (2009), and the National Award of the Chilean Association of Engineers (2010), among other distinctions. In 2003 he was the first computer scientist to be elected to the Chilean Academy of Sciences and since 2010 is a founding member of the Chilean Academy of Engineering. In 2009 he was named ACM Fellow and in 2011 IEEE Fellow.
Resumo:
Objetivos: Describir si el uso de sangre fresca total (SFT) intraoperatoria en pacientes llevados a procedimientos RACHS 3 y 4 en la Fundación Cardioinfantil, disminuye el sangrado postoperatorio y el volumen de transfusión de elementos sanguíneos, en comparación a aquellos en quienes no se usa SFT. Materiales y métodos: Se realizó un estudio de cohorte histórica, tomando una población menor de 1 año expuesta a la sangre fresca total y comparándola con una población de similares características, llevadas a procedimientos de riesgo similar no expuesta. Los análisis se realizaron mediante pruebas estándar para variables continuas y discretas. Un valor de p menor a 0.05 fue aceptado como signficativo. Resultados: 46 pacientes expuestos a SFT y se compararon con 50 pacientes no expuestos. La principal diferencia entre los grupos fue la edad, siendo mayor en el grupo de no expuestos (3.8 años vs 0.9; p<0.001). El volumen de sangrado postoperatorio fue similar, sin embargo los pacientes expuestos a SFT recibieron mayor volumen de transfusiones, sin ser una diferencia estadísticamente significativa (155cc vs 203cc, P=0.9). No hubo diferencia significativa en complicaciones o mortalidad. Conclusiones: En nuestro estudio no se encontró una disminución en el volumen de sangrado postoperatorio en los pacientes menores de 1 año, sometidos a cirugías catalogadas como RACHS 3 y 4, expuestos a SFT, sin embargo se necesitan estudios clínicos controlados que respondan definitivamente a la pregunta.
Resumo:
Investigación exploratoria mixta siguiendo un método deductivo con la que se logró caracterizar el grado de utilización de innovación en el sector bancario y su utilidad en la adquisición de ventajas competitivas con la ayuda de del modelo del Radar de Innovación.