985 resultados para Software Reuse, Objects, Concurrency, Actors, Agents
Resumo:
Muchos esfuerzos se están realizando en el diseño de nuevos métodos para la eliminación de las células tumorales y así inhibir el crecimiento neoplásico. Entre los métodos no convencionales se encuentran la Terapia Fotodinámica.La Terapia Fotodinámica (TFD) es un tratamiento experimental de algunos tipos de cáncer, basado en el efecto citotóxico inducido en el tejido tumoral, por la acción combinada de una droga (fotosensibilizador) y la luz visible. El fotosensibilizador posee la propiedad de absorber la luz y reaccionar con el oxígeno molecular, produciendo una forma activa del oxígeno: el oxígeno singlete (1O2) que oxida diversas moléculas biológicas, induciendo un efecto citotóxico que se traduce en la regresión tumoral. Los nuevos avances en la dosimetría de la luz, así como la búsqueda de una segunda generación de nuevos fotosensibilizadores más eficaces que los actualmente utilizados, han permitido incluir protocolos de Terapia Fotodinámica en numerosos centros hospitalarios principalmente para el tratamiento de cánceres de pulmón, vejiga, esófago y piel. Plantas fototóxicas, sus metabolitos fotosensibilizantes y sus posibles usos; En general, dentro de las especies vegetales tóxicas existen aquellas denominadas plantas alergénicas, que son las que pueden producir sus efectos indeseables por vía dérmica. También existen aquellas que pueden producir efectos tóxicos por vía sistémica. Sin embargo, coexiste en la naturaleza otro grupo de plantas tóxicas que desencadenan sus efectos nocivos bajo la acción de la luz, por lo que son llamadas plantas fototóxicas, cuyos principios activos son comúnmente denominados agentes fotosensibilizantes La apoptosis como blanco terapéutico contra el cáncer: Los conocimientos moleculares sobre la apoptosis adquiridos en los últimos años están siendo aplicados al desarrollo de nuevos fármacos que puedan modular selectivamente las señales involucradas en la muerte de las células. Una de las razones que justifica el interés en el estudio de este tipo de moléculas, es que una de las características más tempranas en la transformación de la células neoplásicas esta relacionada con la incapacidad de responder a los estímulos de muerte. Esto lleva a una desregulación del proceso de apoptosis desencadenando una proliferación descontrolada. Los otros eventos que desencadenan el cáncer son, la invasión vascular y la metástasis a distanciaLa adquisición de resistencia a los efectos citotóxicos de los tratamientos anticancerígenos ha emergido como un significante impedimento para el efectivo tratamiento de la enfermedad. Por ello, en el presente proyecto se investigará si la adquisición de resistencia a TFD inducida en la línea celular estudiada es conferida por el aumento de la proteína MDRP1 a través de la vía de señalización PI3K/Akt. Además, se estudiará la correlación entre la posible resistencia a drogas y la inducción de apoptosis, analizando los mecanismos involucrados. Los resultados obtenidos contribuirán a dilucidar y entender los mecanismos moleculares implicados en la resistencia y sensibilidad tumoral a la TFD, y de esta manera mejorar la eficacia de dicha terapia antitumoral para sensibilizar a las células a la apoptosis. OBJETIVOS Estudiar el efecto de agentes fotosensibilizadores de origen sintético (ftalocianinas), comercialmente ya aprobadas por la FDA (Me-ALA), de origen natural (antraquinonas), y obtenidas en procesos nanotecnologicos (nanofibras) respecto a su capacidad de inducir la muerte celular en sistemas experimentales in vivo, para el desarrollo de nuevas drogas de aplicación en Terapia Fotodinámica (PDT). Estudiar las señales de apoptosis que se desencadenan, combinando la PDT con iRNA (antisurvivina) con la finalidad de aumentar la eficiencia de la muerte tumoral. Estudiar los mecanismos de resistencia a la Terapia Fotodinámica en carcinoma de células escamosas con fotosensibilizadores permitidos (Me-ALA).
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
La programación concurrente es una tarea difícil aún para los más experimentados programadores. Las investigaciones en concurrencia han dado como resultado una gran cantidad de mecanismos y herramientas para resolver problemas de condiciones de carrera de datos y deadlocks, problemas que surgen por el mal uso de los mecanismos de sincronización. La verificación de propiedades interesantes de programas concurrentes presenta dificultades extras a los programas secuenciales debido al no-determinismo de su ejecución, lo cual resulta en una explosión en el número de posibles estados de programa, haciendo casi imposible un tratamiento manual o aún con la ayuda de computadoras. Algunos enfoques se basan en la creación de lenguajes de programación con construcciones con un alto nivel de abstración para expresar concurrencia y sincronización. Otros enfoques tratan de desarrollar técnicas y métodos de razonamiento para demostrar propiedades, algunos usan demostradores de teoremas generales, model-checking o algortimos específicos sobre un determinado sistema de tipos. Los enfoques basados en análisis estático liviano utilizan técnicas como interpretación abstracta para detectar ciertos tipos de errores, de una manera conservativa. Estas técnicas generalmente escalan lo suficiente para aplicarse en grandes proyectos de software pero los tipos de errores que pueden detectar es limitada. Algunas propiedades interesantes están relacionadas a condiciones de carrera y deadlocks, mientras que otros están interesados en problemas relacionados con la seguridad de los sistemas, como confidencialidad e integridad de datos. Los principales objetivos de esta propuesta es identificar algunas propiedades de interés a verificar en sistemas concurrentes y desarrollar técnicas y herramientas para realizar la verificación en forma automática. Para lograr estos objetivos, se pondrá énfasis en el estudio y desarrollo de sistemas de tipos como tipos dependientes, sistema de tipos y efectos, y tipos de efectos sensibles al flujo de datos y control. Estos sistemas de tipos se aplicarán a algunos modelos de programación concurrente como por ejemplo, en Simple Concurrent Object-Oriented Programming (SCOOP) y Java. Además se abordarán propiedades de seguridad usando sistemas de tipos específicos. Concurrent programming has remained a dificult task even for very experienced programmers. Concurrency research has provided a rich set of tools and mechanisms for dealing with data races and deadlocks that arise of incorrect use of synchronization. Verification of most interesting properties of concurrent programs is a very dificult task due to intrinsic non-deterministic nature of concurrency, resulting in a state explosion which make it almost imposible to be manually treat and it is a serious challenge to do that even with help of computers. Some approaches attempts create programming languages with higher levels of abstraction for expressing concurrency and synchronization. Other approaches try to develop reasoning methods to prove properties, either using general theorem provers, model-checking or specific algorithms on some type systems. The light-weight static analysis approach apply techniques like abstract interpretation to find certain kind of bugs in a conservative way. This techniques scale well to be applied in large software projects but the kind of bugs they may find are limited. Some interesting properties are related to data races and deadlocks, while others are interested in some security problems like confidentiality and integrity of data. The main goals of this proposal is to identify some interesting properties to verify in concurrent systems and develop techniques and tools to do full automatic verification. The main approach will be the application of type systems, as dependent types, type and effect systems, and flow-efect types. Those type systems will be applied to some models for concurrent programming as Simple Concurrent Object-Oriented Programming (SCOOP) and Java. Other goals include the analysis of security properties also using specific type systems.
Resumo:
El presente proyecto se propone como parte inicial de una investigación sobre la relación entre naturaleza/cultura/técnica. Tradicionalmente la naturaleza y la cultura se han considerado como ámbitos diferenciados y opuestos. Y es en esta distinción donde la técnica adquiere un lugar central. El pensamiento occidental sobre la técnica ha recibido diversas interpretaciones: desde una subordinación con respecto al conocimiento verdadero (episteme) en la filosofía clásica, un optimismo sobre la técnica como posibilidad de dominación de la naturaleza en el Renacimiento y la Ilustración, y la ambigüedad y desasosiego romántico (Mitcham, 1979). Durante el siglo XX se distinguen dos posiciones antagónicas sobre la técnica. Por un lado, una actitud “crítica” donde pueden identificarse los trabajos de filósofs de diferentes tradiciones como Ortega y Gasset (1939), Heidegger (1954), Mumford (1971) Ellul (1960) y la Escuela de Frankfurt. Por otro lado, una filosofía de la técnica “ingenieril” que consiste en el análisis de la tecnología como un paradigma de pensamiento y acción humana. Esta dicotomía ha sido interpretada por Eco como “apocalípticos e integrados”. Más allá de las mencionadas diferencias, lo que tienen en común ambas posiciones es que parten de una dicotomía entre cultura y naturaleza. Nuestra perspectiva rechaza esta dicotomía, por el contrario, evidenciamos una creciente imbricación entre ambas donde las fronteras entre una y otra se hacen difusas. La noción de “objeto técnico” propuesta por Simondon (2007) hace referencia a la inserción del objeto técnico en la cultura, donde debe reconocerse la “realidad humana” presente en el mismo. Ahora bien, esto no significa “humanizar el objeto técnico”, sino más bien indagar sobre el lugar que este ocupa en la cultura como también establecer su relación con la naturaleza. En el siglo XVII el hombre mismo es reinterpretado como máquina (La Mettrie, 2000). En la actualidad pueden identificarse dos tendencias en la concepción de la técnica: los «humanos-máquinas» y las «máquinas-humanas», en otras palabras, la disposición del humano hacia la máquina y la tendencia de la máquina hacia lo humano. No obstante, ambas posiciones siguen manteniendo una distinción taxonómica entre el cuerpo –o lo orgánico- y lo maquínico, lo que implica una consideración de esta relación de manera extrínseca. Frente a esta tensión Haraway propone el concepto de cyborg: «un organismo cibernético» (1995). Los desarrollos tecnológicos han producido una modificación tal en la vida de los seres orgánicos en los cuales ya no puede concebirse su cuerpo independientemente de la tecnología. Esto conduce a replantear la distinción entre “animales/hombres/máquinas”, entendiendo a los mismos como expresiones de naturaleza, cultura y tecnología respectivamente. Nuestra investigación parte de la hipótesis que la técnica diluye diferencias de orden natural y cultural a través de los objetos técnicos que son productos culturales. La estética se ocupa de la percepción sensible del mundo no puede eludir su dimensión técnica. Al margen de la crítica a la “Industria cultural” consideramos relevante la aproximación de Benjamin al problema de la técnica porque aborda la imbricación antes mencionada en el campo de la percepción. Según Benjamin la irrupción de la técnica al mismo tiempo que posibilita una estetización de la política que confluye en el fascismo como punto extremo también abre la posibilidad de desmontar la ideología del progreso infinito (1967). Una integración entre aproximaciones estéticas y políticas a la técnica Flusser (1983) propone la “caja negra” como metáfora de la técnica contemporánea. Su propuesta es la “apertura de la caja negra” que consiste en tomar conocimiento del funcionamiento del dispositivo. Nuestra propuesta de investigación aborda la técnica desde una consideración filosófica/estética/política, donde redefiniremos la técnica partiendo de la imbricación entre cultura y naturaleza. This project will set the basis for a sustained research on the relation nature/culture/technique. They have been traditionally considered as separate and even opposite fields. And it is on the brink of this distinction where technique plays a central role. In Western thought technique has received many interpretations since the beginnings of philosophy: from a subordination to true knowledge (episteme) in classic philosophy, or the optimism which sees in technique the possibility of dominating nature in the Renaissance and in the Enlightenment, to the Romantic ambiguity and uneasiness towards technological change (Mitcham, 1979). During the twentieth century two opposed approach on technique prevail. On one hand, a “critical” attitude such defines the work of philosophers of different traditions such as Ortega y Gasset (1939), Heidegger (1954), Mumford (1971) Ellul (1960) and the Frankfurt School. On the other hand there is an “engineering” philosophy of technique that consists in the analisis of technology as a paradigm to understand human action and thought. Besides their differences, both positions have in common a dichotomy between nature and culture. We reject such dichotomy. On the contrary we consider there is a growing intertwinement between both which blurs the borders of the concepts. Simondon’s notion of “technical object” refers to the insertion of the technique in culture where the “human reality” in it must be recognised. This does not imply “humanising the technical object”, but investigate on the role it plays on culture and establishing its relation to nature. To articulate this relation we will work with unorthodox approaches on technique such as Benjamin (1967), Flusser (1983) and others. The hypothesis of our project is that the traditional distinction of “animal/man/machine” must be re-thought, therefore raising the question on the blurring line between nature, culture and technique and its effects in philosophy, politics and aesthetics.
Resumo:
Sludge provides valuable nutrients to soil. Application of sludge to land is subject to a number of limitations. Its use as a soil conditioner represents a "beneficial reuse option". Primary and secondary sludge from Dublin city is treated in Ringsend treatment plant where it undergoes thermal drying. This study investigates the feasibility of land application of thermally dried biosolids (TDB) from Ringsend treatment plant.
Resumo:
Transmission of Cherenkov light through the atmosphere is strongly influenced by the optical clarity of the atmosphere and the prevailing weather conditions. The performance of telescopes measuring this light is therefore dependent on atmospheric effects. This thesis presents software and hardware developed to implement a prototype sky monitoring system for use on the proposed next-generation gamma-ray telescope array, VERITAS. The system, consisting of a CCD camera and a far-infrared pyrometer, was successfully installed and tested on the ten metre atmospheric Cherenkov imaging telescope operated by the VERITAS Collaboration at the F.L. Whipple Observatory in Arizona. The thesis also presents the results of observations of the BL Lacertae object, 1ES1959+650, made with the Whipple ten metre telescope. The observations provide evidence for TeV gamma-ray emission from the BL Lacertae object, 1ES1959+650, at a level of more than 15 standard deviations above background. This represents the first unequivocal detection of this object at TeV energies, making it only the third extragalactic source seen at such levels of significance in this energy range. The flux variability of the source on a number of timescales is also investigated.
Resumo:
The research described in this thesis was developed as part o f the Information Management for Green Design (IMA GREE) Project. The 1MAGREE Project was founded by Enterprise Ireland under a Strategic Research Grant Scheme as a partnership project between Galway Mayo Institute o f Technology and C1MRU University College Galway. The project aimed to develop a CAD integrated software tool to support environmental information management for design, particularly for the electronics-manufacturing sector in Ireland.