53 resultados para Mecanismo de ação
em Consorci de Serveis Universitaris de Catalunya (CSUC), Spain
Resumo:
Este trabajo tiene el propósito de estudiar la socialización de la sexualidad femenina a través del análisis de las representaciones sociales de un grupo de mujeres que pertenecen a una comunidad virtual. Estas representaciones y disposiciones son rescatadas de los relatos y comentarios escritos provenientes de la comunicación virtual y del posicionamiento relacional entre mujeres. Dado que la base es comunicacional y por tanto relacional, la conceptualización operativa y la orientación metodológica se llevan a cabo por medio del análisis de redes sociales.
Resumo:
En este trabajo se presenta un estudio de los parámetros dinámicos de terremotos ocurridos bajo las dorsales del Atlántico y Oriental del Pacífico, así como de la variación regional del coeficiente de atenuación de las ondas Rayleigh para la región oriental del Pacífico. Se ha obtenido un coeficiente de atenuación anormalmente alto bajo la dorsal del Pacífico e importantes diferencias en las condiciones de similaridad para las dos dorsales. Comparando los parámetros dinámicos obtenidos para las dorsales (zonas de tensión) con parámetros obtenidos para zonas de subducción (zonas de compresión), resultan ser similares excepto para la caída de esfuerzos. Los resultados obtenidos se interpretan en función de la actividad tectónica de las dorsales.
Resumo:
[spa] Como expresión de la naturaleza erga omnes de las obligaciones jurídicas relativas a la protección de derechos humanos, muchos tratados de derechos humanos que establecen órganos de expertos permiten a los Estados Parte presentar quejas ante dichos órganos contra otras Partes que no observan las obligaciones convencionales. Tales quejas interestatales son un mecanismo híbrido que busca controlar la aplicación del tratado, solucionar las controversias entre Estados Parte y/o prevenir esas controversias. En la práctica, no obstante, las quejas interestatales se interponen en raras ocasiones, principalmente por causa de su alto componente político, que hace que sean vistas como un acto inamistoso. Pese a este escaso uso, llama la atención que la mayoría de quejas interestatales presentadas hasta la fecha se hayan referido a situaciones excepcionales calificables de"crisis", lo que parece poner de manifiesto que este mecanismo podría ser particularmente útil para hacer frente a las violaciones de derechos humanos cometidas en períodos de excepcionalidad.
Resumo:
Desde su nacimiento a mediados del siglo XIX en Rochdale (Gran Bretaña), el movimiento cooperativo de consumo se expandió rápidamente por toda Europa. Conocer cómo funcionaron estas entidades puede proporcionar nuevos elementos de análisis sobre el consumo de alimentos, especialmente en aquellas regiones o ciudades donde tuvieron una mayor difusión. Las cooperativas de consumo distribuían alimentos básicos entre sus asociados, por lo que pudieron constituir un importante mecanismo de acceso a los alimentos en las primeras fases de la transición nutricional. En esta investigación se propone una primera aproximación a la evolución del cooperativismo de consumo en España entre mediados del siglo XIX y la Guerra Civil, prestando especial atención a su desarrollo cronológico y geográfico; estructura ideológica; organización y gestión interna; y a su impacto en la dieta. Las primeras conclusiones indican que el cooperativismo de consumo en España se desarrolló más tarde que en otros países de Europa, y que se localizó en las regiones más industrializadas y urbanizadas del país. Este cooperativismo estuvo inicialmente muy vinculado a las organizaciones obreras, y más tarde también bajo la influencia de la Iglesia Católica. Principalmente distribuían alimentos básicos a precios de mercado entre los asociados y sus familiares, a los que además se les ofrecían servicios de tipo asistencial, cultural y educativo. Es decir, eran cooperativas que respondían al modelo rochdaliano y que no ayudaron en gran medida a la difusión de nuevos alimentos en el marco de la transición nutricional, pero sí a mantener los niveles de vida en segmentos de población urbana con bajos ingresos que debían acceder a los productos básicos por vía monetaria.
Resumo:
La Garantía de Origen, como sistema de certificación de electricidad en función de su origen, fue introducida en España en 2007 y abrió la posibilidad de comercializar y consumir electricidad procedente únicamente de fuentes renovables. Resulta interesante abordar la evolución y el estado actual de este instrumento desde distintas aproximaciones para entender que potencial tiene para provocar cambios en los mecanismos de producción, comercialización y consumo de la electricidad encaminados a hacer el sector más sostenible. Este proyecto muestra como la Garantía incide sobre los patrones de la comercialización y el consumo de la electricidad y, a partir de ahí, es capaz de inducir cambios importantes en la estructura del sector eléctrico haciendo depender más de las fuentes renovables y menos de los combustibles fósiles.
Resumo:
Este artículo pretende presentar algunos elementos de reflexión en torno a las contradicciones e incoherencias existentes entre las características identitarias de la educación social y de su ejercicio profesional a nivel teórico, y la aplicación práctica de ésta así como las consecuencias derivadas de dicho ejercicio. De entre las múltiples consecuencias que puedan tener lugar, en este trabajo nos centraremos en aquellas que son no deseadas, considerando la definición normativa de educación social, y las funciones y encargos sociales que le son atribuidos.
Resumo:
El I Plan Nacional de Accesibilidad 2004-2012 (PNdA) es el mecanismo por el cual la Administración General del Estado se propone acometer de forma ordenada y conjunta con otras administraciones y entidades, la transformación de entornos, servicios y productos, para hacerlos plenamente accesibles a todas las personas, especialmente a aquellas con alguna discapacidad. Por ello la exigencia de desarrollo del Plan surge del articulado de una ley, la Ley 51/2003 sobre igualdad de oportunidades, no discriminación y accesibilidad universal de las personas con discapacidad. Su plazo de ejecución comprende hasta el año 2012.
Resumo:
Una de les opcions que es contemplen per transmetre continguts multimèdia i proporcionar accés a Internet a grups de usuaris mòbils és fer servir satèl·lits. Les condiciones de propagació del canal mòbil impliquen que d'una manera o altra haurem de garantir la qualitat de servei. Això té fins i tot més importància si tenim en compte que, en el cas d'accés a Internet, no es té la capacitat d'assumir cert percentatge de pèrdua de dades que tenim, per exemple, en la transmissió de so o vídeo (rebaixant la qualitat). Entre les principals alternatives per a aquesta classe d’entorns es troba la inclusió de codificacions a nivell de paquet. El funcionament d'aquesta tècnica es basa en incloure a la transmissió paquets redundants, obtinguts mitjançant un determinat algoritme. El receptor podrà recuperar la informació original que es volia enviar, sempre que hagi rebut una certa quantitat de paquets, similar a la quantitat de paquets originals. A aquest mecanisme se'l coneix com Forward Error Correction (FEC) a nivell de paquet. En aquesta memòria es valoren breument les alternatives existents i s'expliquen algunes de les codificacions per a FEC més importants. A continuació es realitza un estudi compartiu d’algunes d'elles: les variants de LDPC (Low Density Parity Check) conegudes com LDGM (Low Density Generator Matrix), i la codificació Raptor
Resumo:
Informe de investigación realizado a partir de una estancia en el Équipe de Recherche en Syntaxe et Sémantique de la Université de Toulouse-Le Mirail, Francia, entre julio y setiembre de 2006. En la actualidad existen diversos diccionarios de siglas en línea. Entre ellos sobresalen Acronym Finder, Abbreviations.com y Acronyma; todos ellos dedicados mayoritariamente a las siglas inglesas. Al igual que los diccionarios en papel, este tipo de diccionarios presenta problemas de desactualización por la gran cantidad de siglas que se crean a diario. Por ejemplo, en 2001, un estudio de Pustejovsky et al. mostraba que en los abstracts de Medline aparecían mensualmente cerca de 12.000 nuevas siglas. El mecanismo de actualización empleado por estos recursos es la remisión de nuevas siglas por parte de los usuarios. Sin embargo, esta técnica tiene la desventaja de que la edición de la información es muy lenta y costosa. Un ejemplo de ello es el caso de Abbreviations.com que en octubre de 2006 tenía alrededor de 100.000 siglas pendientes de edición e incorporación definitiva. Como solución a este tipo de problema, se plantea el diseño de sistemas de detección y extracción automática de siglas a partir de corpus. El proceso de detección comporta dos pasos; el primero, consiste en la identificación de las siglas dentro de un corpus y, el segundo, la desambiguación, es decir, la selección de la forma desarrollada apropiada de una sigla en un contexto dado. En la actualidad, los sistemas de detección de siglas emplean métodos basados en patrones, estadística, aprendizaje máquina, o combinaciones de ellos. En este estudio se analizan los principales sistemas de detección y desambiguación de siglas y los métodos que emplean. Cada uno se evalúa desde el punto de vista del rendimiento, medido en términos de precisión (porcentaje de siglas correctas con respecto al número total de siglas extraídas por el sistema) y exhaustividad (porcentaje de siglas correctas identificadas por el sistema con respecto al número total de siglas existente en el corpus). Como resultado, se presentan los criterios para el diseño de un futuro sistema de detección de siglas en español.
Resumo:
El uso de recursos compartidos en las redes de interconexión de alta performance puede provocar situaciones de congestión de mensajes que degradan notablemente las prestaciones, aumentando la latencia de trasporte y disminuyendo la utilización de la red. Hasta el momento las técnicas que intentan solucionar este problema utilizan la regulación de la inyección de mensajes. Esta limitación de la inyección traslada la contención de mensajes desde los conmutadores hacia los nodos fuente, incrementando el valor de la latencia promedio global, pudiendo alcanzar valores muy elevados. En este trabajo, proponemos una técnica de control de congestión para redes InfiniBand basada en un mecanismo de encaminamiento adaptativo que distribuye el volumen de comunicaciones entre diversas trayectorias alternativas quitando carga de la zona de congestión, lo que permite eliminarla. La experimentación realizada muestra la mejora obtenida en latencia y throughput, respecto al mecanismo de control de congestión original de InfiniBand basado en la regulación de la inyección. El mecanismo propuesto es totalmente compatible y no requiere que se modifique ningún aspecto de la especificación, debido a que se utilizan componentes de gestión definidos en el estándar InfiniBand.
Resumo:
Las capas de acoplamiento son un elemento clave en los dispositivos BAW CRF. El factor de acoplamiento K de estas capas permite el diseño de una determinada respuesta. Debido al limitado número de materiales con las que implementarlas, las soluciones que utilizan capas de λ/4 ofrecen un rango discreto de K. Por otra parte, el reflector de Bragg es un mecanismo de aislamiento mecánico entre el sustrato y la estructura BAW que está formado por capas alternas de alta y baja impedancia acústica de λ/4. El problema que presenta es la reducción del factor de calidad asociado a las pérdidas producida por las ondas shear. Este proyecto presenta un método para la obtención de un rango continuo de factores de acoplamiento y estudia la mejora del factor de calidad de las estructuras BAW con reflector de Bragg partiendo de dos materiales con alta y baja impedancia acústica.
Resumo:
En el siguiente documento podrá encontrar de una forma clara y entendedora, a través de la creación de un sencillo aplicativo, el mecanismo para la creación de una aplicación J2EE basada en el framework de desarrollo Yakarta Struts. En el mismo partirá desde cero, desde el inicio en la captación de requerimientos, pasando por la etapa de análisis y diseño y la posterior implementación.
Resumo:
La 3,4-Metilendioximetanfetamina (MDMA, éxtasis) es un derivado anfetamínico sintético ampliamente usado como droga recreativa, que produce neurotoxicidad serotonérgica en animales y posiblemente también en humanos. El mecanismo subyacente de neurotoxicidad, incluye la formación de especies reactivas de oxigeno (ROS), pero la fuente de generación de estos es un punto de controversia. Se postula que la neurotoxicidad inducida por la MDMA es mediada por la formación de metabolitos bioreactivos. Específicamente, los metabolitos primarios de tipo catecol, la 3,4- dihidroximetanfetamina (HHMA) y la 3,4-dihidroxianfetamina (HHA), que luego dan lugar a la formación de conjugados con el glutatión y la N-acetilcisteína, y que conservan la capacidad de entrar en el ciclo redox y presentan neurotoxicidad serotonérgica en ratas. Aunque la presencia de dichos metabolitos se demostró recientemente en microdialisados de cerebros de ratas, su formación en humanos no se ha reportado aun. Este trabajo describe la detección de N-acetil-cisteína-HHMA (NAC-HHMA) y N-acetil-cisteína-HHA (NAC-HHA) en orina humana de 15 consumidores recreacionales de MDMA (1.5 mg/kg) en un entorno controlado. Los resultados revelan que en las primeras 4 horas después del consumo de MDMA aproximadamente el 0.002% de la dosis administrada es recuperada como aductos tioéter. Los polimorfismos genéticos en la expresión de las enzimas CYP2D6 y COMT, que en conjunto son las principales determinantes de los niveles estables de HHMA y HHA, posiblemente expliquen la variabilidad interindividual observada en la recuperación de la NAC-HHMA y la NAC-HHA en orina. Resumiendo, por primera vez se demuestra la formación de aductos tioéteres neurotóxicos de la MDMA en humanos. Estos resultados apoyan la hipótesis de que la bioactivación de la MDMA a metabolitos neurotóxicos es el mecanismo relevante para la generación de la neurotoxicidad en humanos.
Resumo:
La transferencia horizontal genética en bacterias se produce mediante tres procesos principales: transformación, transducción y conjugación. Este último proceso es considerado uno de los mecanismos más relevantes en la evolución bacteriana y se caracteriza por su eficiencia en la adquisición de nuevos rasgos adaptativos, como ser la resistencia a antibióticos. Existen dos tipos de plásmidos que pueden ser transferidos mediante el proceso de conjugación: conjugativos y movilizables. Los conjugativos son auto-transmisibles ya que codifican todas las proteínas necesarias para la formación del sistema de secreción (ej. F y R388 de Escherichia coli). Los movilizables, por el contrario, son solo transmisibles en presencia de funciones conjugativas adicionales (ej. pMV158 de Streptococcus agalactiae). El proceso de conjugación se inicia con el corte de un enlace específico fosfo-diéster del ADN a ser transferido mediante una proteína denominada relaxasa. Es el caso de la proteína TrwC del plásmido conjugativo R388, cuyos estudios bioquímicos y estructurales demostraron que la presencia de una tríada de histidina, coordinada a un ión metálico, y dos residuos tirosina juegan un rol decisivo en el mecanismo catalítico. Un estudio sistemático, por difracción de rayos X ha permitido determinar la identidad y función del ión metálico, la localización de la segunda tirosina catalítica y la posición del grupo fosfato del enlace fosfo-diéster a ser cortado. Asimismo, se caracterizó por difracción de rayos X, la proteína MobM del plásmido movilizable pMV158. Esta proteína cumple un papel homólogo al de la TrwC, pero en una bacteria Gram positiva. La estructura cristalina de MobM es la primera obtenida de una relaxasa implicada en el sistema de movilización de una bacteria Gram positiva. Las similitudes y diferencias estructurales se describirán en este informe.
Resumo:
El comercio de derechos de emisión consiste en un mecanismo de mercado ‘diseñado’ y organizado por los poderes públicos, en el marco de un acuerdo internacional, como pieza central de la regulación económica/medio-ambiental sobre actividades que generan una externalidad negativa: emisión de cantidades importantes de dióxido de carbono, el principal gas responsable del efecto invernadero. ¿Cuáles son los costes de la reducción de emisiones pactadas en el PK y quien los está soportando? ¿porqué chocan los intereses de los grandes países en el desarrollo del PK? Después de los primeros años de funcionamiento (se inicia en el 2005), ¿cuáles han sido los resultados reales de este mecanismo de regulación & mercado, que fue diseñado con el objetivo de reducir las emisiones a escala mundial?