719 resultados para atomicity violation


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The dataset provides detailed information on the study that was conducted in Lahore's 7 major towns. The sample was taken from 472 tubewells and analyzed for major cations and anions using APHA 2012 techniques as explained herein. Besides, E.coli determination was done to check for microbial contamination. The data includes results from PHREEQC modeling of As(III)/ As(V) species and saturation indices as well as Aquachem's computed hydrochemical water facies. The WHO (2011) and EPA standards included in Aquachem identified the parameters that where in violation. Bicarbonates dominated the groundwater types with 50.21% of the samples exceeding the EPA maximum permissible limit of 250 mg/L in drinking water. Similarly, 30.51% of the samples had TDS values greater than 500 mg/L while 85.38 % of the samples exceed 10 µg/L threshold limit value of arsenic. Also, instances of high magnesium hazard values were observed which requires constant assessment if the groundwater is used for irrigation. Higher than 50% MH values are detrimental to crops which may reduce the expected yields. The membrane filtration technique using m-Endo Agar indicated that 3.59% samples had TNC (too numerous to count) values for E.coli while 5.06% showed values higher than 0 cfu/ 100 ml acceptable value in drinking water. Any traces of E-coli in a groundwater sample indicate recent fecal contamination. Such outcomes signify presence of enteric pathogens. If the groundwater is not properly dosed with disinfectants it may cause harm to human health. It is concluded that more studies are needed and proper groundwater management implement to safeguard the lives of communities that depend solely on groundwater in the city.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hyper-Kamiokande will be a next generation underground water Cherenkov detector with a total (fiducial) mass of 0.99 (0.56) million metric tons, approximately 20 (25) times larger than that of Super-Kamiokande. One of the main goals of HyperKamiokande is the study of CP asymmetry in the lepton sector using accelerator neutrino and anti-neutrino beams. In this paper, the physics potential of a long baseline neutrino experiment using the Hyper-Kamiokande detector and a neutrino beam from the J-PARC proton synchrotron is presented. The analysis uses the framework and systematic uncertainties derived from the ongoing T2K experiment. With a total exposure of 7.5 MW × 10⁷ s integrated proton beam power (corresponding to 1.56 × 10²² protons on target with a 30 GeV proton beam) to a 2.5-degree off-axis neutrino beam, it is expected that the leptonic CP phase δCP can be determined to better than 19 degrees for all possible values of δCP , and CP violation can be established with a statistical significance of more than 3 σ (5 σ) for 76% (58%) of the δCP parameter space. Using both νe appearance and νµ disappearance data, the expected 1σ uncertainty of sin²θ₂₃ is 0.015(0.006) for sin²θ₂₃ = 0.5(0.45).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper examines the legal feasibility of different design options for implementing a differentiated electricity tax based on renewable energy (RE) certificates aimed at promoting green electricity generation. It discusses the issue of likeness in light of the recent WTO jurisprudence and looks at the possibility of justification of differentiated tax rates under the general exceptions of the GATT. It also scrutinizes the potential legal hurdles for the implementation of different tax design options including the use of certificates for RE tax exemption. It argues that the placing of a quota on the number of foreign RE certificates eligible for tax exemptions would likely affect the volumes of imported green electricity and therefore trigger a violation of GATT rules. At the same time, restrictions on the eligibility of RE certificates might be defended under WTO law if they are based on qualitative criteria, such as the attachment of RE certificates to green electricity flows or to a green electricity label that is equally available to domestic and foreign suppliers of RE electricity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present two concurrent semantics (i.e. semantics where concurrency is explicitely represented) for CC programs with atomic tells. One is based on simple partial orders of computation steps, while the other one is based on contextual nets and it is an extensión of a previous one for eventual CC programs. Both such semantics allow us to derive concurrency, dependency, and nondeterminism information for the considered languages. We prove some properties about the relation between the two semantics, and also about the relation between them and the operational semantics. Moreover, we discuss how to use the contextual net semantics in the context of CLP programs. More precisely, by interpreting concurrency as possible parallelism, our semantics can be useful for a safe parallelization of some CLP computation steps. Dually, the dependency information may also be interpreted as necessary sequentialization, thus possibly exploiting it for the task of scheduling CC programs. Moreover, our semantics is also suitable for CC programs with a new kind of atomic tell (called locally atomic tell), which checks for consistency only the constraints it depends on. Such a tell achieves a reasonable trade-off between efficiency and atomicity, since the checked constraints can be stored in a local memory and are thus easily accessible even in a distributed implementation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present a concurrent semantics (i.e. a semantics where concurrency is explicitely represented) for CC programs with atomic tells. This allows to derive concurrency, dependency, and nondeterminism information for such languages. The ability to treat failure information puts CLP programs also in the range of applicability of our semantics: although such programs are not concurrent, the concurrency information derived in the semantics may be interpreted as possible parallelism, thus allowing to safely parallelize those computation steps which appear to be concurrent in the net. Dually, the dependency information may also be interpreted as necessary sequentialization, thus possibly exploiting it to schedule CC programs. The fact that the semantical structure contains dependency information suggests a new tell operation, which checks for consistency only the constraints it depends on, achieving a reasonable trade-off between efficiency and atomicity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Service compositions put together loosely-coupled component services to perform more complex, higher level, or cross-organizational tasks in a platform-independent manner. Quality-of-Service (QoS) properties, such as execution time, availability, or cost, are critical for their usability, and permissible boundaries for their values are defined in Service Level Agreements (SLAs). We propose a method whereby constraints that model SLA conformance and violation are derived at any given point of the execution of a service composition. These constraints are generated using the structure of the composition and properties of the component services, which can be either known or empirically measured. Violation of these constraints means that the corresponding scenario is unfeasible, while satisfaction gives values for the constrained variables (start / end times for activities, or number of loop iterations) which make the scenario possible. These results can be used to perform optimized service matching or trigger preventive adaptation or healing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the advent of cloud computing, many applications have embraced the ensuing paradigm shift towards modern distributed key-value data stores, like HBase, in order to benefit from the elastic scalability on offer. However, many applications still hesitate to make the leap from the traditional relational database model simply because they cannot compromise on the standard transactional guarantees of atomicity, isolation, and durability. To get the best of both worlds, one option is to integrate an independent transaction management component with a distributed key-value store. In this paper, we discuss the implications of this approach for durability. In particular, if the transaction manager provides durability (e.g., through logging), then we can relax durability constraints in the key-value store. However, if a component fails (e.g., a client or a key-value server), then we need a coordinated recovery procedure to ensure that commits are persisted correctly. In our research, we integrate an independent transaction manager with HBase. Our main contribution is a failure recovery middleware for the integrated system, which tracks the progress of each commit as it is flushed down by the client and persisted within HBase, so that we can recover reliably from failures. During recovery, commits that were interrupted by the failure are replayed from the transaction management log. Importantly, the recovery process does not interrupt transaction processing on the available servers. Using a benchmark, we evaluate the impact of component failure, and subsequent recovery, on application performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las aplicaciones distribuidas que precisan de un servicio multipunto fiable son muy numerosas, y entre otras es posible citar las siguientes: bases de datos distribuidas, sistemas operativos distribuidos, sistemas de simulación interactiva distribuida y aplicaciones de distribución de software, publicaciones o noticias. Aunque en sus orígenes el dominio de aplicación de tales sistemas distribuidos estaba reducido a una única subred (por ejemplo una Red de Área Local) posteriormente ha surgido la necesidad de ampliar su aplicabilidad a interredes. La aproximación tradicional al problema del multipunto fiable en interredes se ha basado principalmente en los dos siguientes puntos: (1) proporcionar en un mismo protocolo muchas garantías de servicio (por ejemplo fiabilidad, atomicidad y ordenación) y a su vez algunas de éstas en distintos grados, sin tener en cuenta que muchas aplicaciones multipunto que precisan fiabilidad no necesitan otras garantías; y (2) extender al entorno multipunto las soluciones ya adoptadas en el entorno punto a punto sin considerar las características diferenciadoras; y de aquí, que se haya tratado de resolver el problema de la fiabilidad multipunto con protocolos extremo a extremo (protocolos de transporte) y utilizando esquemas de recuperación de errores, centralizados (las retransmisiones se hacen desde un único punto, normalmente la fuente) y globales (los paquetes solicitados se vuelven a enviar al grupo completo). En general, estos planteamientos han dado como resultado protocolos que son ineficientes en tiempo de ejecución, tienen problemas de escalabilidad, no hacen un uso óptimo de los recursos de red y no son adecuados para aplicaciones sensibles al retardo. En esta Tesis se investiga el problema de la fiabilidad multipunto en interredes operando en modo datagrama y se presenta una forma novedosa de enfocar el problema: es más óptimo resolver el problema de la fiabilidad multipunto a nivel de red y separar la fiabilidad de otras garantías de servicio, que pueden ser proporcionadas por un protocolo de nivel superior o por la propia aplicación. Siguiendo este nuevo enfoque se ha diseñado un protocolo multipunto fiable que opera a nivel de red (denominado RMNP). Las características más representativas del RMNP son las siguientes; (1) sigue una aproximación orientada al emisor, lo cual permite lograr un grado muy alto de fiabilidad; (2) plantea un esquema de recuperación de errores distribuido (las retransmisiones se hacen desde ciertos encaminadores intermedios que siempre estarán más cercanos a los miembros que la propia fuente) y de ámbito restringido (el alcance de las retransmisiones está restringido a un cierto número de miembros). Este esquema hace posible optimizar el retardo medio de distribución y disminuir la sobrecarga introducida por las retransmisiones; (3) incorpora en ciertos encaminadores funciones de agregación y filtrado de paquetes de control, que evitan problemas de implosión y reducen el tráfico que fluye hacia la fuente. Con el fin de evaluar el comportamiento del protocolo diseñado, se han realizado pruebas de simulación obteniéndose como principales conclusiones que, el RMNP escala correctamente con el tamaño del grupo, hace un uso óptimo de los recursos de red y es adecuado para aplicaciones sensibles al retardo.---ABSTRACT---There are many distributed applications that require a reliable multicast service, including: distributed databases, distributed operating systems, distributed interactive simulation systems and distribution applications of software, publications or news. Although the application domain of distributed systems of this type was originally confíned to a single subnetwork (for example, a Local Área Network), it later became necessary extend their applicability to internetworks. The traditional approach to the reliable multicast problem in internetworks is based mainly on the following two points: (1) provide a lot of service guarantees in one and the same protocol (for example, reliability, atomicity and ordering) and different levéis of guarantee in some cases, without taking into account that many multicast applications that require reliability do not need other guarantees, and (2) extend solutions adopted in the unicast environment to the multicast environment without taking into account their distinctive characteristics. So, the attempted solutions to the multicast reliability problem were end-to-end protocols (transport protocols) and centralized error recovery schemata (retransmissions made from a single point, normally the source) and global error retrieval schemata (the requested packets are retransmitted to the whole group). Generally, these approaches have resulted in protocols that are inefficient in execution time, have scaling problems, do not make optimum use of network resources and are not suitable for delay-sensitive applications. Here, the multicast reliability problem is investigated in internetworks operating in datagram mode and a new way of approaching the problem is presented: it is better to solve to the multicast reliability problem at network level and sepárate reliability from other service guarantees that can be supplied by a higher protocol or the application itself. A reliable multicast protocol that operates at network level (called RMNP) has been designed on the basis of this new approach. The most representative characteristics of the RMNP are as follows: (1) it takes a transmitter-oriented approach, which provides for a very high reliability level; (2) it provides for an error retrieval schema that is distributed (the retransmissions are made from given intermedíate routers that will always be closer to the members than the source itself) and of restricted scope (the scope of the retransmissions is confined to a given number of members), and this schema makes it possible to optimize the mean distribution delay and reduce the overload caused by retransmissions; (3) some routers include control packet aggregation and filtering functions that prevent implosión problems and reduce the traffic flowing towards the source. Simulation test have been performed in order to evalúate the behaviour of the protocol designed. The main conclusions are that the RMNP scales correctly with group size, makes optimum use of network resources and is suitable for delay-sensitive applications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La medida de calidad de vídeo sigue siendo necesaria para definir los criterios que caracterizan una señal que cumpla los requisitos de visionado impuestos por el usuario. Las nuevas tecnologías, como el vídeo 3D estereoscópico o formatos más allá de la alta definición, imponen nuevos criterios que deben ser analizadas para obtener la mayor satisfacción posible del usuario. Entre los problemas detectados durante el desarrollo de esta tesis doctoral se han determinado fenómenos que afectan a distintas fases de la cadena de producción audiovisual y tipo de contenido variado. En primer lugar, el proceso de generación de contenidos debe encontrarse controlado mediante parámetros que eviten que se produzca el disconfort visual y, consecuentemente, fatiga visual, especialmente en lo relativo a contenidos de 3D estereoscópico, tanto de animación como de acción real. Por otro lado, la medida de calidad relativa a la fase de compresión de vídeo emplea métricas que en ocasiones no se encuentran adaptadas a la percepción del usuario. El empleo de modelos psicovisuales y diagramas de atención visual permitirían ponderar las áreas de la imagen de manera que se preste mayor importancia a los píxeles que el usuario enfocará con mayor probabilidad. Estos dos bloques se relacionan a través de la definición del término saliencia. Saliencia es la capacidad del sistema visual para caracterizar una imagen visualizada ponderando las áreas que más atractivas resultan al ojo humano. La saliencia en generación de contenidos estereoscópicos se refiere principalmente a la profundidad simulada mediante la ilusión óptica, medida en términos de distancia del objeto virtual al ojo humano. Sin embargo, en vídeo bidimensional, la saliencia no se basa en la profundidad, sino en otros elementos adicionales, como el movimiento, el nivel de detalle, la posición de los píxeles o la aparición de caras, que serán los factores básicos que compondrán el modelo de atención visual desarrollado. Con el objetivo de detectar las características de una secuencia de vídeo estereoscópico que, con mayor probabilidad, pueden generar disconfort visual, se consultó la extensa literatura relativa a este tema y se realizaron unas pruebas subjetivas preliminares con usuarios. De esta forma, se llegó a la conclusión de que se producía disconfort en los casos en que se producía un cambio abrupto en la distribución de profundidades simuladas de la imagen, aparte de otras degradaciones como la denominada “violación de ventana”. A través de nuevas pruebas subjetivas centradas en analizar estos efectos con diferentes distribuciones de profundidades, se trataron de concretar los parámetros que definían esta imagen. Los resultados de las pruebas demuestran que los cambios abruptos en imágenes se producen en entornos con movimientos y disparidades negativas elevadas que producen interferencias en los procesos de acomodación y vergencia del ojo humano, así como una necesidad en el aumento de los tiempos de enfoque del cristalino. En la mejora de las métricas de calidad a través de modelos que se adaptan al sistema visual humano, se realizaron también pruebas subjetivas que ayudaron a determinar la importancia de cada uno de los factores a la hora de enmascarar una determinada degradación. Los resultados demuestran una ligera mejora en los resultados obtenidos al aplicar máscaras de ponderación y atención visual, los cuales aproximan los parámetros de calidad objetiva a la respuesta del ojo humano. ABSTRACT Video quality assessment is still a necessary tool for defining the criteria to characterize a signal with the viewing requirements imposed by the final user. New technologies, such as 3D stereoscopic video and formats of HD and beyond HD oblige to develop new analysis of video features for obtaining the highest user’s satisfaction. Among the problems detected during the process of this doctoral thesis, it has been determined that some phenomena affect to different phases in the audiovisual production chain, apart from the type of content. On first instance, the generation of contents process should be enough controlled through parameters that avoid the occurrence of visual discomfort in observer’s eye, and consequently, visual fatigue. It is especially necessary controlling sequences of stereoscopic 3D, with both animation and live-action contents. On the other hand, video quality assessment, related to compression processes, should be improved because some objective metrics are adapted to user’s perception. The use of psychovisual models and visual attention diagrams allow the weighting of image regions of interest, giving more importance to the areas which the user will focus most probably. These two work fields are related together through the definition of the term saliency. Saliency is the capacity of human visual system for characterizing an image, highlighting the areas which result more attractive to the human eye. Saliency in generation of 3DTV contents refers mainly to the simulated depth of the optic illusion, i.e. the distance from the virtual object to the human eye. On the other hand, saliency is not based on virtual depth, but on other features, such as motion, level of detail, position of pixels in the frame or face detection, which are the basic features that are part of the developed visual attention model, as demonstrated with tests. Extensive literature involving visual comfort assessment was looked up, and the development of new preliminary subjective assessment with users was performed, in order to detect the features that increase the probability of discomfort to occur. With this methodology, the conclusions drawn confirmed that one common source of visual discomfort was when an abrupt change of disparity happened in video transitions, apart from other degradations, such as window violation. New quality assessment was performed to quantify the distribution of disparities over different sequences. The results confirmed that abrupt changes in negative parallax environment produce accommodation-vergence mismatches derived from the increasing time for human crystalline to focus the virtual objects. On the other side, for developing metrics that adapt to human visual system, additional subjective tests were developed to determine the importance of each factor, which masks a concrete distortion. Results demonstrated slight improvement after applying visual attention to objective metrics. This process of weighing pixels approximates the quality results to human eye’s response.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gaines’ legal team, led by Houston, had faith in the justice system of the United States and anticipated getting a fair trial at the federal level. So far, all decisions had occurred in Missouri, a state with a segregated system.The fact that Gaines v Canada had reached the Supreme Court was promising indeed. It was rare that any case involving African-Americans would be considered by the highest court in the land. President Franklin D. Roosevelt had been appointing Justices that were more willing to consider cases concerned with civil rights. On November 9, 1938, the Supreme Court of the United States heard arguments in the Gaines v Canada case. The defense was unmoved by the rude treatment and made their presentation with professionalism and aplomb. Houston’s argument remained steadfast; not only was the state of Missouri’s statute concerning out-of-state tuition for blacks in violation of the 14th Amendment, but the very idea of segregation itself violated the Constitution. William Hogsett, the attorney for the University of Missouri, countered that the school was merely following state laws. The MU legal team was flustered as questions from the bench forced them to correct overstatements regarding Missouri’s “generosity to Negro students”. With crossed fingers and high hopes, the Gaines legal team rested their case and awaited the verdict. Meanwhile, Lloyd Gaines was still in Michigan. Lloyd held a W.P.A. job as a Civil Service Clerk and was in constant contact with his family and attorneys. His mood in his correspondence was hopeful and positive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A centralidade na família é uma das principais diretrizes adotadas pela Política Nacional de Assistência Social (PNAS) implementada por meio do Sistema Único de Assistência Social (SUAS). A noção de matricialidade sociofamiliar configura-se como base para a formulação de serviços específicos de abordagem familiar nos níveis de proteção social básica e especial, que visam o acompanhamento longitudinal de famílias em situação de vulnerabilidade social, definida neste contexto pela condição de desvantagem em decorrência da pobreza, da privação de renda e de acesso aos serviços e bens públicos, da fragilização de vínculos afetivos, relacionais e de pertencimento. Objetivou-se com esse estudo identificar como as mulheres usuárias do SUAS percebiam e definiam as vulnerabilidades do próprio núcleo familiar, assim como verificar se a concepção de vulnerabilidade social proposta pela PNAS é condizente com as problemáticas apresentadas pelas famílias usuárias do SUAS. A pesquisa qualitativa foi executada por meio de entrevistas de longa duração com temas advindos da observação participante realizada ao longo de três anos de acompanhamento de mulheres usuárias do SUAS por meio de abordagem grupal em serviço de Assistência Social do bairro do Butantã na cidade de São Paulo. Participaram do estudo oito mulheres, acima de 18 anos, usuárias do SUAS e residentes da zona oeste de São Paulo. As depoentes têm entre 35 e 51 anos de idade, estudaram entre a 5ª e a 8ª série do Ensino Fundamental II, cinco delas são migrantes, quatro vivem com os companheiros e filhos e quatro residem com os filhos em uma organização familiar monoparental, três são beneficiárias da Previdência Social, duas estão inseridas em trabalhos formais, duas em trabalhos informais e uma não trabalha. Todas relataram ter sofrido episódios de violência e violação de direitos, principalmente observados na dificuldade de acesso a serviços sociais básicos. Os depoimentos marcaram dificuldades experimentadas ao longo da vida das mulheres e a tônica dos relatos destacou as preocupações atreladas ao papel de mãe e à luta cotidiana que enfrentam para educar, orientar, sustentar e estar junto aos filhos, sobretudo daqueles que se encontram na fase da infância e da adolescência. À luz da noção de enraizamento, proposta por Simone Weil, foi possível identificar que as depoentes apresentam e enfrentam cotidianamente dificuldades ligadas ao desenraizamento urbano, elucidado especialmente na carência de participação comunitária e política. Nesse cenário, a condição de vulnerabilidade pela qual as famílias são definidas no âmbito da política de assistência social, revela certa ambiguidade, pois ao mesmo tempo em que permite oferecer a essas famílias alguma modalidade de apoio também as coloca numa posição estigmatizada de beneficiárias das políticas públicas. Com isso, considerou-se que apesar da concepção de vulnerabilidade proposta pela PNAS ser condizente com as problemáticas apresentadas pelas usuárias, verifica-se uma lacuna em relação à dimensão subjetiva da formação de cada grupo familiar e suas necessidades específicas a fim de apoiá-los para a promoção de uma mudança efetiva

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente tese apresenta uma proposta de mudança lógico-epistemológica na abordagem do tema da realização dos direitos humanos universais: de uma lógica binária de conformidade jurídica para uma lógica de graus de compatibilidade jurídica. Realiza, ainda, uma exposição sobre a obra de Mireille Delmas-Marty, com foco na doutrina do pluralismo ordenado, cuja noção enfrenta o desafio lógico que é conciliar a universalidade dos direitos humanos com a diversidade cultural. A tese apresenta o pluralismo ordenado estruturado sobre o seguinte tripé: admitir, pensar e resguardar o múltiplo. Admitir o múltiplo é assumir que os limites do conjunto dos direitos humanos é difuso, impreciso, permeável. Pensar o múltiplo é rever as noções de tempo, espaço e hierarquia para os direitos humanos. Resguardar o múltiplo é forjar mecanismos que conciliem controle e flexibilidade, como a margem nacional de apreciação elaborada pela Corte Europeia de Direitos Humanos. A partir disso, a tese explora essa noção como uma espécie de margem de incerteza que exige transparência e zelo para a manutenção da ordem em um contexto plural. Ademais, aponta os critérios comumente utilizados para a verificação da extensão da margem: destacadamente parâmetros relacionados à natureza do direito em questão, à construção de uma jurisprudência internacional e à identificação de uma harmonia entre as legislações nacionais. Este tripé conduz a um projeto de harmonização jurídica em escala global, norteada pelos direitos humanos, afastando, em regra, a pretensão de unificação normativa, sendo que o limite dessa harmonização encontra-se nos crimes contra a humanidade, em razão da violação da diversidade dos seres humanos. A presente tese demonstra que essa necessidade de mudança lógica está em sintonia com as transformações ocorridas nas últimas décadas na ciência e na filosofia da lógica. Apresenta a lógica difusa como ícone do rompimento com o princípio binário da lógica clássica e como fundamento para a mudança da perspectiva de conformidade para graus de compatibilidade. Defende, por fim, um pluralismo lógico, em que teorias clássica e não clássica devem ser consideradas como ferramentas a serem aplicadas a diferentes desafios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo discutir a questão da exigibilidade do direito à saúde no Brasil e seu impacto sobre a formulação e implementação de políticas públicas (mínimo existencial x reserva do possível). Aborda-se a evolução histórica da saúde até sua consagração como direito fundamental na Constituição Brasileira de 1988. Por meio da jurisprudência formada favoravelmente à saúde, os tribunais pátrios têm assumido papel ativo na interpretação e na proteção desse direito. Várias vezes, as decisões judiciais determinam, na prática, uma redefinição das políticas públicas do Executivo. Trata-se de um contexto que vem incentivando as pessoas ao ajuizamento de ações para exigir a concretização do direito à saúde, fenômeno também conhecido como judicialização do direito à saúde. Tal ativismo se explica pelo fato de o Judiciário considerar que a ineficiência administrativa e o método de priorização da atenção à saúde revelam falhas que interferem na proteção do acesso à saúde, reconhecendo-os como verdadeiro descumprimento do dever estatal em relação a tal direito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O controle operário é um fenômeno social, expressão direta da luta de classes e produto de um momento histórico no qual as relações sociais de produção são marcadas pela subsunção forma e real do trabalho ao capital e pela propriedade privada dos meios de produção. Nesse sentido, o controle operário se expressa em diversos momentos dessa histórica, seja como luta dos trabalhadores pela sobrevivência, de forma a garantir o emprego e sua fonte de subsistência, ou, luta revolucionária, para a superação do modo de produção capitalista, almejando não só o controle no local de trabalho, mas do próprio Estado. Quando se está falando de uma fábrica ou empresa, o método geralmente utilizado para se alcançar este objetivo é a ocupação do estabelecimento e o controle do processo produtivo, mas é possível que seu controle possa ser exercido por meio de conselhos no interior da fábrica, respaldado por uma organização operária e popular mais geral na sociedade. Esse fenômeno normalmente é abordado na sociologia ou na política, de forma a verificar as relações e contradições do controle operário com o modo de produção vigente e com as instituições políticas como Estado, o partido ou o Sindicato. Cumpre no presente trabalho, todavia, abordar em que medida o controle operário pode ser encarado como um direito dos trabalhadores de assumirem o controle do processo produtivo no local de trabalho. A partir de uma abordagem histórica do fenômeno do controle operário e de sua expressão contemporânea, como produto de ocupações de fábricas falidas ou em dificuldades financeiras, nas quais o empregador passa a descumprir reiteradamente os direitos trabalhistas, verifica-se que, ao contrário de uma violação ao direito de propriedade ou direito de posse, o que se configura, nessas hipóteses, é um verdadeiro direito dos trabalhadores de controlar a produção, notadamente com o intuito de manter a unidade produtiva e a geração de emprego e renda para a sociedade. Nesse sentido, devem ser protegidos juridicamente os métodos da classe trabalhadora que se efetivam com este fim, como as greves de ocupações ativas, quando conferem à posse ou à propriedade sua função social. Todavia, este direito não surge livre de contradições. Com efeito, o direito reproduziria em si a lógica capitalista, ou poderia servir de instrumento para a classe trabalhadora? Embora encaremos a forma jurídica enquanto produto da forma mercantil e, portanto, essencialmente capitalista, verificamos que o próprio desenvolvimento dialético da história não se dá livre de contradições. A nova racionalidade do direito social, nesse sentido, seria um elemento que, se por um lado busca reafirmar a lógica capitalista em seu bojo, restabelecendo os padrões de igualdade e liberdade, por outro carrega consigo elementos que, em alguma medida, expõe as contradições e os limites do próprio direito. Portanto, o direito ao controle operário não se mostra elemento prejudicial à classe trabalhadora, embora seja acompanhado de contradições inerentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study involves a qualitative analysis of a doctoral-level psychology trainee's first-hand account of sexual attraction and boundary violations that occurred in her clinical supervision and psychotherapy. Concepts of power, gender, social performance theory, and relational framing are applied to two case examples, illustrating the differing demands on a trainee when her relationships were sexualized in two distinct professional contexts. Ramifications of supervisory exploitation and the impact of such an experience on a trainee's professional development are discussed. Recommendations are provided for improving psychology training programs' prevention and response efforts.