1000 resultados para Física-Trabajos anteriores a 1800
Resumo:
Se tratan las aplicaciones de los avances de la física en el diseño y evolución de las cocinas domésticas. Se comentan los fundamentos físicos de componentes de la cocina que han venido a ser cotidianos y familiares en nuestros hogares. El comentario de las bases científicas se contextualiza dentro del currículo de secundaria, de forma que se pueden presentar como aplicaciones tecnológicas de la física contemporánea.
Resumo:
Se han desarrollado en la Escuela Técnica Superior de Ingeniería Informática (ETS II)y en la Escuela Universitaria Politécnica (EUP) de la Universidad de VAlladolid (UVA) un conjunto de herramientas y programas informáticas para facilitar la enseñanza de la Física y potencar la eficacia de las prácticas de laboratorio. En concreto se han desarrollado cinco prácticas virtuales accesibles a través de internet. Cada una esta formada por diversas página web y simulaciones en JAVA además se han creado dos páginas web complejas incluyendo APPLEts de JAVA para explicar con ejemplos dos temas completos de teoría. Tercero,se han incluido en estas páginas web también dos programas de simulación para que los alumnos los utilizen para estudiar los fenómenos físicos representados por ellos. Finalmente, también se han grabado dos películas de vídeo en las que profesores participantes en el proyecto explican mediante ejemplos y experimentos algunos fenómenos físicos. Los materiales utilizados han sido, obviamente, diversos ordenadores y editores de páginas web, así como una cámara de vídeo y programas de tratamiento de imágenes. Los resultados se comunicarán en un Congreso Internacional y un Artículo (aún sin publicar).
Resumo:
Se analiza la conveniencia de la enseñanza de la astronomía en educación primaria y se presenta esta actividad destinada, entre otras, al estudio de la rotación la Tierra alrededor del Sol y los meridianos, a fomentar el trabajo en equipo, a descubrir y aplicar el conocimiento.
Resumo:
Incluye Bibliografía
Resumo:
[ES] El interés científico en la meditación ha crecido significativamente en las últimas décadas. La meditación es, tal vez, la práctica más adecuada para investigar las propiedades intrínsecas del Sistema nervioso autónomo (SNA), dado que conlleva un estado de total inmovilidad física y de cierto aislamiento del exterior (interiorización). En meditación, ya que no hay movimiento físico, el patrón respiratorio es ajustado según el proceso mental. Así, la modulación que ejerce la respiración sobre la frecuencia cardiaca está relacionada a la cualidad y al enfoque de la atención en la práctica. De los resultados obtenidos en nuestra investigación, podemos concluir que hay patrones específicos de variabilidad de la frecuencia cardiaca (VFC) que parecen reflejar fases o etapas en la práctica. Así, sujetos con una experiencia en meditación similar tienden a mostrar patrones análogos de variabilidad cardiaca. A medida que se progresa en la práctica meditativa, los diferentes sistemas oscilantes tienden a interaccionar entre ellos, hasta culminar con la aparición de un efecto resonante que establece un ?nuevo orden? en el sistema. Este proceso parece reflejar cambios graduales en la actividad del SNA para alcanzar un "modo de funcionamiento de bajo coste", donde los diversos mecanismos oscilatorios que intervienen en el control de la circulación sanguínea operan a la misma frecuencia. El fenómeno de resonancia implica un ?modo de funcionamiento de bajo coste? que probablemente favorece la práctica de la meditación. Así, este estado de ?orden? (aunque no sin variabilidad) podría ser considerado un atractor, al cual el sistema tiende a evolucionar cuando se haya alcanzado un nivel avanzado de mindfulness. El concepto de atractor, procedente de las modernas teorías que tratan con la dinámica de sistemas complejos no-lineales, parece mostrarse útil para describir de manera heurística el comportamiento del sistema en estados meditativos profundos. Los resultados obtenidos en esta tesis apoyan y complementan otros trabajos anteriores, además se añade la idea de una adaptación fisiológica gradual a la práctica de la meditación mindfulness, caracterizada por cambios específicos en la regulación autonómica de la VFC en las diferentes etapas de la práctica. Para el análisis de las series fisiológicas, de carácter fuertemente no lineal, se han implementado técnicas basadas en el análisis Wavelet y Dinámica Simbólica.
Resumo:
La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.
Resumo:
Interacciones no lineales de ondas de Alfvén existen tanto para plasmas en el espacio como en laboratorios, con efectos que van desde calentamiento hasta conducción de corriente. Un ejemplo de emisión de ondas de Alfvén en ingeniería aeroespacial aparece en amarras espaciales. Estos dispositivos emiten ondas en estructuras denominadas “Alas de Alfvén”. La ecuación derivada no lineal de Schrödinger (DNLS) posee la capacidad de describir la propagación de ondas de Alfvén de amplitud finita circularmente polarizadas en un plasma frío. En esta investigación, dicha ecuación es truncada con el objetivo de explorar el acoplamiento coherente, débilmente no lineal y cúbico de tres ondas cerca de resonancia. De las tres ondas, una es linealmente inestable y las otras dos son amortiguadas. Por medio de la utilización de este modelo se genera un flujo 4D formado por tres amplitudes y una fase relativa. En trabajos anteriores se analizó la transición dura hacia caos en flujos 3D.2005). Se presenta en este artículo un análisis teórico y numérico del comportamiento del sistema cuando la tasa de crecimiento de la onda inestable es muy próxima a cero y considerando amortiguamiento resistivo, es decir se satisface una relación cuadrática entre amortiguamientos y números de onda. Al igual que en los trabajos anteriores, se ha encontrado que sin importar cuan pequeña es la tasa de crecimiento de la onda inestable existe un dominio paramétrico, en el espacio de fase, donde aparecen oscilaciones caóticas que están ausentes para una tasa de crecimiento nula. Sin embargo diagramas de bifurcación y dominios de estabilidad presentan diferencias con respecto a lo estudiado anteriormente.
Resumo:
Relevamiento y estudio de aspectos relacionados con el conjunto hídrico, ecológico y paisajístico asociado con la Laguna de Mar Chiquita, y una propuesta de Plan Director integrado que permita lograr un funcionamiento sustentable del sistema. Abarcará la recopilación de antecedentes sobre variaciones en los regímenes hidrológicos de la laguna y sus tributarios, junto con las variaciones en calidad de agua y sus consecuencias sobre el ecosistema dependiente. Se utilizará la información disponible en bases de datos de organismos públicos, y a partir de trabajos anteriores del grupo de investigadores involucrados, sobre caudales, calidad de agua, recursos en flora, fauna, paisaje, y sus variaciones en función de los cambios hidrológicos, climáticos, o por efecto de contaminación del medio. Se realizarán también estudios exploratorios para identificar factores de riesgo y cambios evidentes o inminentes en los ecosistemas causados por mal uso o contaminación del recurso hídrico. Dichos estudios abarcarán relevamientos, monitoreos planificados y/o verificaciones in situ, con posterior análisis de los datos obtenidos, análisis de muestras de agua y sedimento en la laguna y sus tributarios, evaluación de cambios en comunidades de peces, aves, plantas, paisaje, etc.
Resumo:
La conjugación interdisciplinaria entre la Química y la Taxonomía Vegetal ha dado origen a una nueva disciplina, la Quimiotaxonomía. Esta nueva forma de estudio consiste en aplicar a la clasificación de las plantas los resultados de su análisis químico. Así, la información derivada de los compuestos presentes en los vegetales aporta evidencias que permiten ubicar o reubicar distintos taxones críticos. La evolución de los compuestos químicos y de los aspectos morfológicos está interrelacionada y muchos metabolitos secundarios sirven para confirmar las clasificaciones morfológicas. Sin embargo, en los casos en que las relaciones morfológicas son poco claras, los metabolitos secundarios o marcadores a menudo son pruebas de considerable valor. (...) Para que un compuesto pueda ser utilizado como marcador quimiotaxonómico debe estar presente en el taxón bajo estudio, como así también debe quedar claro su ausencia fuera del mismo. (...) El proyecto tiene dos objetivos fundamentales: a) El aislamiento e identificación de los metabolitos secundarios de especies de la tribu Heliantheae (Asteraceae) con énfasis en los géneros Helianthus y Viguiera y en especies de la familia Umbeliferas , género Eryngium . En ambas familias se ha demostrado que las relaciones morfológicas son poco claras, por lo que la información derivada de los compuestos presentes en los vegetales pueden aportarnos evidencias que permitan ubicar o reubicar distintos taxones críticos. (...) b) La determinación de la bioactividad de los metabolitos secundarios presentes en las especies mencionadas precedentemente. En trabajos anteriores hemos determinado que algunos compuestos obtenidos e identificados pueden ser repelentes de insectos o inhibir el crecimiento de plantas. Por esta razón, se proseguirá con el ensayo sobre los extractos completos y sobre compuestos puros. En algunos casos la purificación será guiada por la mayor o menor actividad biológica de los extractos y fracciones obtenidas. También se recurrirá a su modificación estructural con el objetivo de establecer una relación estructura-actividad.
Resumo:
En este pedido de subsidio se presenta una nueva línea de investigación que se propone analizar la función y mecanismo de acción de la hormona melanocito concentrante (MCH) y su interrelación con la alfa-MSH [Hormona melanocito estimulante] ya que ambos péptidos actúan en forma antagónica en peces. Para cumplimentar este objetivo se propone analizar la función del MCH en el comportamiento de aseo excesivo y si éste péptido bloquea el efecto de alfa-MSH en esta conducta al igual que se anulan en los peces. Además, hemos comprobado en trabajos anteriores que alfa-MSH disminuye la temperatura ante el aumento provocado por un pirógeno exógeno y también se han establecido los neurotransmisores (NT) involucrados. En este proyecto nos proponemos establecer el efecto de MCH y su interacción con MSH y los NT involucrados en el proceso de termoregulación, comportamiento de aseo excesivo y estudios de inmunidad. Además, siguiendo con nuestra línea de trabajo, continuamos indagando sobre los sistemas de segundos mensajeros involucrados en el mecanismo de alfa-MSH mediante estudios in vivo e in vitro, midiendo estos segundos mensajeros en zonas específicas del Sistema Nervioso Central (SNC). Investigaremos cómo están involucrados los receptores nicotínicos y muscarínicos en la inducción de las conductas y la medición de los segundos mensajeros AMPc e IP 3 en núcleo estriado. Con respecto a la participación de alfa-MSH en el comienzo de la pubertad se propone: A) Establecer si la estimulación de la liberación de esteroides ováricos de LH, FSH y alfa-MSH estaría mediada por AMPc. Para su cumplimiento se plantea realizar incubación de ovarios prepuberales en presencia de alfa-MSH y las gonadotrofinas hipofisarias a fin de determinar las variaciones de P, E2 y AMPc liberadas al medio. B) Corroborar si existe una unión directa de alfa-MSH a las células ováricas para interactuar con las gonadotrofinas y por su intermedio modificar la liberación de P. Para ello se propone determinar el porcentaje de unión del péptido marcado a células ováricas. C) Determinar por medio de autoradiografía, si la administración aguda del péptido a ratas prepúberes, modifica el contenido ovárico de receptores para FSH y/o LH. Se continuarán los estudios tendientes a establecer la interrelación entre hormonas esteroideas, catecolaminas y alfa-MSH en la regulación de la conducta sexual. Se analizará la actividad lordótica luego de la inyección de alfa-MSH en área preóptica y se tratará de establecer qué NT median la respuesta observada, midiendo además el contenido del péptido en diferentes áreas del SNC y liberación de LH.
Resumo:
Hasta el momento no hay una explicación definitiva sobre los mecanismos etiopatogénicos de la miocardiopatía chagásica. A partir de las alteraciones farmacológicas y lesiones histopatológicas descriptas en trabajos anteriores y coincidiendo con otros autores, pensamos que el compromiso de la perfusión vascular y las reacciones de autoinmunidad podrían involucrar modificaciones en los receptores beta cardíacos. Hemos realizado un seguimiento evolutivo de estos receptores desde los 35 días a los 135 días post inoculación con tripomastigotes cepa Tulahuen y comprobamos que las alteraciones histológicas y farmacológicas se correlacionan con los cambios de afinidad y densidad de dichos receptores de acuerdo a la etapa en estudio (aguda, indeterminada y crónica). Asimismo se demostró que la cantidad de Trypanosoma cruzi que ingresa al huésped determina y acelera la evolución de la miocardiopatía chagásica. Continuando con la línea de estudio de los receptores beta cardíacos en los distintos estadíos de la enfermedad chagásica experimental, nos proponemos estudiar las características dinámicas de las membranas miocárdicas determinando su composición en fosfolípidos y otros componentes polares. A la vez se plantea estudiar si el tratamiento con beta bloqueante incide en los desórdenes que se producen en los receptores beta cardíacos de animales inoculados con T. cruzi , cepa Tulahuen. Por lo antes mencionado, se intenta lograr un aporte que desde el área básica se podría dar para esclarecer la fisiopatogenia de la miocarditis chagásica y colaborar en el enfoque de nuevas acciones terapéuticas.
Resumo:
En trabajos anteriores se resuelve el problema de caracterizar las variedades con la propiedad de Fraser-Horn tales que el haz de Pierce tiene todas las fibras indescomponibles. El concepto clave en ambos trabajos fue el de elemento central y la herramienta fundamental fue poseer axiomas suficientemente ecuacionales que definan la propiedad de ser un elemento central y la propiedad de pertenecer al núcleo de la proyección canónica asociada a un elemento central. En dichos trabajos esto se logra bajo la fuerte hipótesis de que todas las fibras son indescomponibles, aunque en general usando teoría de preservación se puede probar que la situación no es tanto peor. (...) Objetivos generales y específicos: El objetivo general es estudiar las propiedades de primer orden de los elementos centrales en variedades con la propiedad de Fraser-Horn. El objetivo específico es resolver el siguiente problema: ¿Existen axiomas de la forma OJO^OJO p=q que axiomaticen la propiedad de ser un elemento central en una variedad con la propiedad de Fraser-Horn?
Resumo:
La invasión del Trypanosoma cruzi a la célula huésped es un proceso de endocitosis tipo ligando-receptor que produce aumento de Ca2+ citosólico y reorganización de actina cortical. En trabajos anteriores se había observado que la fosfatasa alcalina placentaria (FAP) estaba modificada en las placentas de embarazadas chagásicas con respecto a las placentas control. El T.cruzi secreta fosfolipasa C, y ésta podría tener alguna función importante en la interiorización del parásito a la célula huésped. La FAP es una enzima unida a membrana por glicosilfosfatidilinositol, y esta molécula es susceptible a la acción de la fosfolipasa C, por lo que se propone que la FAP podría estar involucrada en el proceso de interiorización del parásito a la célula placentaria, actuando como gatilladora de señales. Objetivo General: Determinar si la FAP y componentes del citoesqueleto del sinciciotrofoblasto de placentas humanas están involucrados en la interiorización del T. cruzi en infecciones realizadas in vitro. Objetivos específicos: - Analizar la interacción de la FAP de sinciciotrofoblasto de placentas humanas con el T. cruzi en el proceso de interiorización a células placentarias en un modelo de infección in vitro y estudiar la capacidad de invasividad del parásito a la célula placentaria bajo ciertas condiciones experimentales que alteran el funcionamiento normal de la FAP. - Determinar la existencia de reorganización del citoesqueleto de las células placentarias en la infección in vitro con T. cruzi. - Comparar los resultados obtenidos con la placenta con experiencias similares realizadas en células HEP/2. Metodología: Mediante la utilización de un sistema in vitro que simule infección placentaria por el T. cruzi, se determinó la participación de la FAP en este proceso. Los estudios se realizaron entre vellosidades placentarias humanas y tripomastigotes del T. cruzi y entre células HEp2 y tripomastigotes del T. cruzi.
Resumo:
La enfermedad de Chagas Mazza, endémica en América Latina, afecta a 20 millones de personas y 50.000 muertes anuales están asociadas. La transmisión connatal de la enfermedad está relacionada con nacimientos prematuros, abortos, placentitis y con la presencia de diversas patologías del recién nacido. La actividad de la fosfatasa alcalina humana (EC 3.1.3.1) ha sido utilizada con fines diagnósticos por más de 60 años. Un aumento en el nivel de Fosfatasa Alcalina es observado en la segunda mitad del embarazo en función del tiempo de gestación y es un índice de la actividad placentaria. Messer demostró que una disminución en la actividad específica de esta enzima es un signo de disfunción placentaria, siendo de utilidad en el diagnóstico clínico de diversas patologías. Se ha demostrado disminución de la enzima en placentas preeclámpsicas. Mediante microscopía electrónica se detectó una disminución de la actividad de la fosfatasa alcalina placentaria en el sinciciotrofoblasto en placentas de madres chagásicas. En una reproducción de la infección de placenta humana in vitro se observa un significativo descenso de la actividad de fosfatasa alcalina en el medio de cultivo, lo cual sugiere que el T. cruzi produciría en el plasma de la embarazada chagásica un efecto análogo. Trabajos anteriores permiten postular que la actividad de la fosfatasa alcalina placentaria disminuye en el suero de pacientes chagásicos entre las 36 a 40 semanas de gestación y que esta disminución se asocia con el nacimiento de niños chagásicos. Se ha sugerido además que la fosfatasa alcalina placentaria es un receptor de IgG y que el transporte transplacentario de la IgG de la madre al feto dependería del genotipo fetal de fosfatasa alcalina placentaria. Estos hechos permiten suponer que en la interacción placenta- T. cruzi la actividad de fosfatasa alcalina placentaria jugaría un rol importante pues podría condicionar según su polimorfismo la posibilidad de una determinada incidencia de la infección fetal. (...) No existen estudios analíticos ni sistemáticos de la actividad de fosfatasa alcalina placentaria en la enfermedad de Chagas en el plasma y placenta durante el transcurso del embarazo que permitan dilucidar el rol de la enzima en la interacción placenta-parásito-feto a través de las formas que se le atribuyen a la enzima en condiciones normales. Teniendo en cuenta estos antecedentes, en el presente proyecto se proponen: Objetivo General Caracterizar la fosfatasa alcalina placentaria de las placentas normales cultivadas e infectadas con T. cruzi y del medio de cultivo en la infección in vitro con el objeto de dilucidar los posibles mecanismos de la infección placentaria en la enfermedad de Chagas congénita. Objetivos específicos: 1- Analizar los cambios de la actividad de fosfatasa alcalina placentaria en la placenta cultivada con Trypanosoma cruzi mediante análisis enzimático, electroforético e inmunocitoquímico. 2- Correlacionar las modificaciones bioquímicas de la fosfatasa alcalina placentaria, mediante el análisis de captación de IgG, en el sistema in vitro. 3- Analizar las propiedades bioquímicas de la fosfatasa alcalina placentaria en vellosidades cultivadas con Trypanosoma cruzi y corroborarla con la actividad de la enzime en cultivo con neuraminidasa o fosfolipasa sin T. cruzi.
Resumo:
El carcinoma basocelular (CBC) representa el tumor maligno más frecuente de la piel en personas de raza blanca. Incide en mayores de 50 años de edad e infiltra los tejidos, pero rara vez ocasiona metástasis. En trabajos anteriores, observamos imágenes de cuerpos apoptóticos con MOAR (microscopía óptica de alta resolución), en pieles portadoras de CBC. Todas las células eucariotas poseen una maquinaria enzimática que interviene en la apoptosis. Estas enzimas son las proteincinasas pertenecientes a la familia de las caspasas. Se sintetizan como procaspasas, las cuales una vez activadas, actúan sobre otra caspasa en una reacción secuencial en cadena. Se reconoce que la apoptosis juega un rol importante en el balance y mantenimiento de los tejidos. Hipótesis: -Investigar si la expresión de metaloproteasas y caspasas en las células del CBC promueven y contribuyen a la progresión y extensión tumoral. Objetivos:-Profundizar el conocimiento de la conducta biológica del CBC, en referencia a la relación de los patrones de crecimiento macro y microscópicos del tumor, enfatizando en la expresión de metaloproteasas (colagenasa-3 y streptomelisina), CD-31, Ki-67, oncoproteína bcl-2 y caspasas, mediante la implementación de técnicas de inmunohistoquímica. -Analizar a nivel morfológico la presencia de cuerpos apoptóticos por medio de MOAR y determinar si influyen en la conducta biológica del tumor. Materiales y Métodos: Se realizará un estudio retrospectivo y prospectivo de pacientes asistidos en el Servicio de Dermatología del Hospital Nacional de Clínicas, desde el año 2000. Se utilizarán tomas incisionales de piel, que se fijarán en formol neutro al 10 por ciento y luego serán procesadas e incluidas en parafina y coloreadas con H-E (hematoxilina-eosina). Especimenes seleccionados, se utilizarán para técnicas de MOAR e inmunocitoquímica. El material para MOAR, se fijará en Karnovsky enfriado a pH 7,2 y se incluirá en resinas epóxicas, seccionados con un ultramicrótomo Porter BluMT1 (1micra) y coloreados con P.A.S. azul de toluidina, fuscina básica y metenamina-plata. La aplicación de las técnicas inmunohistoquímicas, se utilizaran sobre cortes desparafinados con xilol, que permitirán investigar en forma retrospectiva y prospectiva la matriz extracelular (MEC) y los elementos neoplásicos. Los anticuerpos monoclonales a utilizar serán: Colageno tipo IV clone CIV 22 M0785 monoclonal antibody (DAKO), CD44 clone E29 M0613 monoclonal antibody (DAKO), Oncoproteina bcl-2 clone 124 M0887 monoclonal antibody (DAKO), CD31: clone 35 BH11 MO631 monoclonal antibody (DAKO) K-167 clone PC10 M0879 monoclonal antibody.(DAKO) bclx y Caspasa 8. Metodología Estadística Los resultados serán evaluados mediante: a) Varianza Anova; para datos con distribución gausiana como media, SD. b) Krusal Walles; para rasgos de distribución no gausiana. c) Chi2 para determinar la diferencia significativa para proporciones. Resultados esperados: Del análisis histomorfológico cualitativo y cuantitativo de biopsias de piel con CBC, aportar determinaciones que clarifiquen la conducta biológica de este tumor.- Importancia del Proyecto: El CBC es una entidad que está aumentando su incidencia en forma exponencial, debido sobre todo a pautas sociales. No sólo ocasiona trastornos en los pacientes, sino que también, representa gastos en el sistema de salud. Asimismo, significa un desafío para la investigación. Esto permite explorar aspectos de la biología molecular, a partir de una entidad que posee características únicas.