931 resultados para SOL-GEL PROCESS
Resumo:
Peri-urban infestations with triatomine bugs, their sources and their dynamics have rarely been investigated. Here, we corroborated the reported occurrence of Triatoma infestans in a peri-urban area and in neighbouring rural houses in Pampa del Indio, in the Argentine Chaco, and identified its putative sources using spatial analysis and demographic questionnaires. Peri-urban householders reported that 10% of their premises had triatomines, whereas T. infestans was collected by timed manual searches or community-based surveillance in only nine (3%) houses. Trypanosoma cruzi-infected T. infestans and Triatoma sordida were collected indoors only in peri-urban houses and were infected with TcV and TcI, respectively. The triatomines fed on chickens, cats and humans. Peri-urban infestations were most frequent in a squatter settlement and particularly within the recently built mud houses of rural immigrants, with large-sized households, more dogs and cats and more crowding. Several of the observed infestations were most likely associated with passive bug transport from other sources and with active bug dispersal from neighbouring foci. Thus, the households in the squatter settlement were at a greater risk of bug invasion and colonisation. In sum, the incipient process of domestic colonisation and transmission, along with persistent rural-to-urban migratory flows and unplanned urbanisation, indicate the need for active vector surveillance and control actions at the peri-urban interface of the Gran Chaco.
Resumo:
Background: Peach fruit undergoes a rapid softening process that involves a number of metabolic changes. Storing fruit at low temperatures has been widely used to extend its postharvest life. However, this leads to undesired changes, such as mealiness and browning, which affect the quality of the fruit. In this study, a 2-D DIGE approach was designed to screen for differentially accumulated proteins in peach fruit during normal softening as well as under conditions that led to fruit chilling injury. Results:The analysis allowed us to identify 43 spots -representing about 18% of the total number analyzed- that show statistically significant changes. Thirty-nine of the proteins could be identified by mass spectrometry. Some of the proteins that changed during postharvest had been related to peach fruit ripening and cold stress in the past. However, we identified other proteins that had not been linked to these processes. A graphical display of the relationship between the differentially accumulated proteins was obtained using pairwise average-linkage cluster analysis and principal component analysis. Proteins such as endopolygalacturonase, catalase, NADP-dependent isocitrate dehydrogenase, pectin methylesterase and dehydrins were found to be very important for distinguishing between healthy and chill injured fruit. A categorization of the differentially accumulated proteins was performed using Gene Ontology annotation. The results showed that the 'response to stress', 'cellular homeostasis', 'metabolism of carbohydrates' and 'amino acid metabolism' biological processes were affected the most during the postharvest. Conclusions: Using a comparative proteomic approach with 2-D DIGE allowed us to identify proteins that showed stage-specific changes in their accumulation pattern. Several proteins that are related to response to stress, cellular homeostasis, cellular component organization and carbohydrate metabolism were detected as being differentially accumulated. Finally, a significant proportion of the proteins identified had not been associated with softening, cold storage or chilling injury-altered fruit before; thus, comparative proteomics has proven to be a valuable tool for understanding fruit softening and postharvest.
Resumo:
O objectivo deste trabalho foi de propor propostas de revitalização dos patrimónios arquitectónicos, históricos e culturais da cidade de Ponta do Sol, no intuito de que essa acção pudesse contribuir, de forma significativa, para a preservação dos patrimónios e um possível crescimento económico de Santo Antão, sobretudo do ponto de vista turístico. A cidade de Ponta do Sol, no passado, teve grande importância no que tange à produção e escoamento de vários produtos a exemplo do café, aguardente e quina, tanto para as outras ilhas como para países europeus. Mantém em seu espaço várias e belas construções dos tempos coloniais, entretanto esquecidas, e muitas delas já destruídas e outras encontrando-se em elevado estado de degradação. Além disso, possui uma grande presença judaica e também uma diversidade de herança histórica e cultural, que precisa continuar existindo para que não se perca a identidade cultural da comunidade, uma vez que há presença de tentativas de homogeneização da cultura, imposta principalmente pelos países desenvolvidos e pela globalização. Sendo assim, a preservação e revitalização dos edifícios, tanto público como privado, como do centro histórico em geral, poderá servir de base promotora para o fortalecimento da actividade turística da cidade. Para isso utilizaram-se como fontes bibliográficas, vários documentos, livros diversos, entrevistas, fotografias e trabalho de campo. Depois, com a recolha de dados foi possível constatar que a cidade de Ponta do Sol está atravessando um processo de degradação e modernização. Apesar de ainda activo e vivo, o centro está-se deteriorando, e se não houver intervenções que revertam esse processo, este perderá muito da sua identidade, da sua história-cultural e principalmente os seus patrimónios. Mas, propostas, projectos intervencionistas e acções executoras podem ainda reverter parte dessa situação e dando soluções ao centro da Cidade. Algumas propostas serão implementadas e até mesmo aglutinadas a novas propostas, podendo ser benéficas tanto para a cidade como também para a população. The aim of this work is to make proposals for the revitalization of the historic, cultural and architectural heritage of the city of Ponta do Sol, hoping that this action could contribute in a meaningful way to preserve the patrimony and the possible economic growth of Santo Antão, an island which is particularly considered for the production and trade of different products, especially coffee, liquor and quinine for other islands as well as for European countries. It displays several beautiful colonial constructions. However, they have been forgotten and some of degradation. Besides, this city hosts a great Judaic presence and also some diversity of the cultural identity, since there is the presence of attempts for the homogenization of the culture, imposed mainly by developed countries and the globalization. Thus, the preservation and revitalization of both public and private buildings as well as of the historic centre in general, can serve of a promotion basis for the strength of the historic activity in this town. That´s why a lot of documents, several books, interviews, photos, and field work as local evidence were used as bibliography. Afterwards, with the collected data it was possible to notice that the city of Ponta do Sol is facing a process of degradation and modernization. In spite of still being active and alive, the center is up deteriorating and if on interventions are made to revert this process, it will lose a lot of its identity, cultural history and mainly its patrimony. But proposals, interventionist projects and executive actions can still revert part of this situation and get solutions for the City centre. Some proposal which will be implemented and even be agglutinated to new proposal can be helpful for the city as well as for the population.
Resumo:
The prediction of rockfall travel distance below a rock cliff is an indispensable activity in rockfall susceptibility, hazard and risk assessment. Although the size of the detached rock mass may differ considerably at each specific rock cliff, small rockfall (<100 m3) is the most frequent process. Empirical models may provide us with suitable information for predicting the travel distance of small rockfalls over an extensive area at a medium scale (1:100 000¿1:25 000). "Solà d'Andorra la Vella" is a rocky slope located close to the town of Andorra la Vella, where the government has been documenting rockfalls since 1999. This documentation consists in mapping the release point and the individual fallen blocks immediately after the event. The documentation of historical rockfalls by morphological analysis, eye-witness accounts and historical images serve to increase available information. In total, data from twenty small rockfalls have been gathered which reveal an amount of a hundred individual fallen rock blocks. The data acquired has been used to check the reliability of the main empirical models widely adopted (reach and shadow angle models) and to analyse the influence of parameters which affecting the travel distance (rockfall size, height of fall along the rock cliff and volume of the individual fallen rock block). For predicting travel distances in maps with medium scales, a method has been proposed based on the "reach probability" concept. The accuracy of results has been tested from the line entailing the farthest fallen boulders which represents the maximum travel distance of past rockfalls. The paper concludes with a discussion of the application of both empirical models to other study areas.
Resumo:
A general understanding of interactions between DNA andoppositely charged compounds forms the basis for developing novelDNA-based materials, including gel particles. The association strength,which is altered by varying the chemical structure of the cationiccosolute, determines the spatial homogeneity of the gelation process,creating DNA reservoir devices and DNA matrix devices that can bedesigned to release either single- (ssDNA) or double-stranded(dsDNA) DNA. This paper reviews the preparation of DNA gelparticles using surfactants, proteins and polysaccharides. Particlemorphology, swelling/dissolution behaviour, degree of DNAentrapment and DNA release responses as a function of the nature ofthe cationic agent used are discussed. Current directions in thehaemocompatible and cytotoxic characterization of these DNA gelparticles have been also included.
Resumo:
In this work we present a simulation of a recognition process with perimeter characterization of a simple plant leaves as a unique discriminating parameter. Data coding allowing for independence of leaves size and orientation may penalize performance recognition for some varieties. Border description sequences are then used, and Principal Component Analysis (PCA) is applied in order to study which is the best number of components for the classification task, implemented by means of a Support Vector Machine (SVM) System. Obtained results are satisfactory, and compared with [4] our system improves the recognition success, diminishing the variance at the same time.
Resumo:
Some modifications made at silanization step and the introduction of r-nitrobenzil bromide as an alternative reagent to the 8-hydroxiquinolein immobilization in silica gel were important points that brought up the reduction of synthesis time, efficency improvement of the immobilization process and better hydrolysis stabilization to the final materials. The caracterization was made by infrared spectroscopy, elementary analysis, complexing capacity and acid-base properties.
Resumo:
Silica gel is widely used as adsorbent for isolating and purifying natural compounds. Intensive use and high cost make this process expensive and generate solid residues contaminated with many different organic compounds. In the present work a simple method for recycling silica was investigated, by using Advanced Oxidative Processes. Silica gel was treated with H2O2/solar light and compared with a sample treated by conventional methods (high temperature and oxidation with KMnO4). High temperature treatment changes the structure of the silica and, consequently, the separation efficiency. Oxidation by using KMnO4 requires multiple steps and produces residues, including manganese and oxalic acid. The method using H2O2/solar light to recuperate silica gel does not modify its separation efficiency and is less expensive than the traditional methods. Additionally, HPLC and GC-MS analysis indicate that H2O2/solar light eliminates all residues of the silica gel.
Resumo:
A novel type of heavy metal adsorbent was prepared by the covalent grafting of thioglycolic acid molecules on a silica gel surface previsiouly modified with 3-aminopropyltrimethoxysilane. The amount of thioglycolic acid immobilized was 1.03 mmol per gram of silica. This material displayed a chelating moiety containing nitrogen, sulfur, and oxygen basic centers which are potentially capable of extracting from aqueous solutions cations such as Cu(II), Ni(II), Co(II), influenced by pH and ionic strength. This process of extraction was carried out by the batch method when similar chemisorption isotherms were observed for all cations. A modified Langmuir equation describes the experimental data.
Resumo:
Argentation chromatography is used to increase the selectivity of the chromatographic process, chiefly in the resolution of complex mixtures of nonpolar substances. Although efficient, this technique generates residues containing heavy metal which makes its discarding through common procedures impracticable. In the present work a simple method for recycling of silica, and also silver, from argentation chromatography is described. This procedure uses initially a treatment of H2O2/HNO3, with subsequent treatment with H2O2/H2SO4 , allowing an efficient recycling of both components. This methodology is simple, costless, removes impurities efficiently, and does not modify retention parameters nor specific surface in a significant way.
Resumo:
The immobilization of enzymes and microorganisms on solid supports has been developed in recent years. These biocatalysts may be used in organic media allowing their storage and reuse, thus reducing costs of the process. Herein, lipases from various sources were immobilized in agar gel and used as catalysts in the chemo-enzymatic epoxidation of β-caryophyllene. Several experimental parameters, such as the use of different organic solvents including ionic liquids, time, temperature, and agitation rate were evaluated. The mono-epoxide was obtained as a single product. The best result was achieved using immobilized F-AP15 lipase, forming the corresponding β-caryophyllene epoxide at a conversion of 96% in an 8h reaction at 35 ºC.
Resumo:
Adsorbents functionalized with chelating agents are effective in removal of heavy metals from aqueous solutions. Important properties of such adsorbents are high binding affinity as well as regenerability. In this study, aminopolycarboxylic acid, EDTA and DTPA, were immobilized on the surface of silica gel, chitosan, and their hybrid materials to achieve chelating adsorbents for heavy metals such as Co(II), Ni(II), Cd(II), and Pb(II). New knowledge about the adsorption properties of EDTA- and DTPA-functionalizedadsorbents was obtained. Experimental work showed the effectiveness, regenerability, and stability of the studied adsorbents. Both advantages and disadvantages of the adsorbents were evaluated. For example, the EDTA-functionalized chitosan-silica hybrid materials combined the benefits of the silica gel and chitosan while at the same time diminishing their observed drawbacks. Modeling of adsorption kinetics and isotherms is an important step in design process. Therefore, several kinetic and isotherm models were introduced and applied in this work. Important aspects such as effect of error function, data range, initial guess values, and linearization were discussed and investigated. The selection of the most suitable model was conducted by comparing the experimental and simulated data as well as evaluating the correspondence between the theory behind the model and properties of the adsorbent. In addition, modeling of two-component data was conducted using various extended isotherms. Modeling results for both one- and twocomponent systems supported each other. Finally, application testing of EDTA- and DTPA-functionalized adsorbents was conducted. The most important result was the applicability of DTPA-functionalized silica gel and chitosan in the capturing of Co(II) from its aqueous EDTA-chelate. Moreover, these adsorbents were efficient in various solution matrices. In addition, separation of Ni(II) from Co(II) and Ni(II) and Pb(II) from Co(II) and Cd(II) was observed in two- and multimetal systems. Lastly, prior to their analysis, EDTA- and DTPA-functionalized silica gels were successfully used to preconcentrate metal ions from both pure and salty waters
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
L’utilisation de stratégies antisyndicales est un phénomène de plus en plus préconisé par l’acteur patronal (Bronfenbrenner, 2009b). Une piste d’explication de cette croissance serait liée à l’idéologie de gestion se basant sur une amertume inhérente à l’idée de partager le pouvoir avec une tierce partie représentant des travailleurs (Dundon et al., 2006). Dans le but de faire régner cette idéologie et de conserver un environnement de travail sans présence syndicale, des multinationales se sont même positionnées ouvertement contre la syndicalisation, que l’on pense à Wal-Mart, Mc Donald’s ou Disney (Dundon et al., 2006). Avec cette puissance que les multinationales détiennent actuellement, il ne fait nul doute qu’elles exercent une influence auprès des dirigeants des plus petites entreprises (Dundon et al., 2006), ce qui pourrait expliquer ce recours accru aux stratégies antisyndicales, que ce soit avant ou après l’accréditation syndicale. Mais qu’en est-il de l’antisyndicalisme de l’acteur patronal en sol canadien? Pour certains, les employeurs canadiens pratiqueraient davantage une stratégie d’acceptation du syndicalisme comparativement à nos voisins du sud à cause notamment de la plus forte présence syndicale historique dans le système des relations industrielles canadien, des tactiques syndicales canadiennes différentes (Thomason & Pozzebon, 1998) et des lois encadrant davantage les droits d’association et de négociation collective (Boivin, 2010; Thomason & Pozzebon, 1998). Des travaux montrent cependant une réelle volonté de la part des employeurs canadiens à avoir recours à des stratégies d’opposition à la syndicalisation (Bentham, 2002; Martinello & Yates, 2002; Riddell, 2001). Selon les auteurs Martinello et Yates (2002), six pour cent (6 %) des employeurs ontariens couverts dans le cadre de leur étude n’auraient adopté aucune tactique pour éviter ou éliminer le syndicat : quatre-vingt-quatorze pour cent (94 %) des employeurs couverts ont ainsi utilisé différentes tactiques pour s’opposer au syndicalisme. C’est donc dire que l’opposition patronale face au mouvement syndical révélée par l’utilisation de diverses stratégies antisyndicales est aussi présente chez les employeurs canadiens. Peu d’études canadiennes et québécoises ont pourtant enrichi la littérature au sujet de ce phénomène. De manière générale, les travaux effectués sur la question, anglo-saxons et surtout américains, font principalement état du type de stratégies ainsi que de leur fréquence d’utilisation et proposent souvent une méthodologie basée sur une recension des décisions des tribunaux compétents en la matière ou l’enquête par questionnaire. Face à ces constats, nous avons visé à contribuer à la littérature portant sur les stratégies antisyndicales et nous avons construit un modèle d’analyse nous permettant de mieux cerner leurs effets sur les travailleurs et les syndicats. Notre recherche se démarque également de la littérature de par les démarches méthodologiques qu’elle propose. Nous avons en effet réalisé une recherche de nature qualitative, plus spécifiquement une étude de cas d’une entreprise multiétablissement du secteur du commerce au détail. Notre modèle d’analyse nous permet de dégager des constats quant aux effets de l’utilisation des stratégies patronales antisyndicales auprès des travailleurs visés et du syndicat visé, que ce soit sur les intérêts individuels, les intérêts collectifs ainsi que sur les intérêts du syndicat tels que proposés par Slinn (2008b). Également, nous cherchions à comprendre dans quelle mesure les stratégies antisyndicales contribuent à diminuer (effet paralysant) ou à augmenter (effet rebond) la propension à la syndicalisation des travailleurs visés par les stratégies, tout en tenant compte de la propension des travailleurs d’autres succursales qui n’étaient pas visés directement par cette utilisation (effet d’entraînement). Pour atteindre nos objectifs de recherche, nous avons procédé en trois phases. La phase 1 a permis de faire la recension de la littérature et de formuler des propositions théoriques à vérifier sur le terrain. La phase 2 a permis de procéder à la collecte de données grâce aux entrevues semi-dirigées réalisées à deux niveaux d’analyse : auprès de représentants syndicaux et de travailleurs. Au cours de la phase 3, nous avons procédé à la retranscription des entrevues effectuées et nous avons analysé les principaux résultats obtenus. La méthode de l’appariement logique (Yin, 2009) a été utilisée pour comparer les phénomènes observés (données issues du terrain) aux phénomènes prédits (constats de la littérature et propositions théoriques). À la suite de la réalisation de la phase 3, nous constatons que la campagne de peur a été celle qui a été la plus utilisée en réaction à la menace de présence syndicale avec les tactiques dites coercitives qui la composent : la fermeture de deux succursales, un discours devant un auditoire captif, la diffusion d’une vidéo interne, etc. De ce fait, un sentiment de peur généralisé (86 % des répondants) s’attaquant aux intérêts collectifs a été perçu à la suite de l’utilisation des tactiques antisyndicales. Par conséquent, nous avons pu observer l’effet de ces tactiques sur les travailleurs visés et sur le syndicat : elles auraient en effet gelé la propension de travailleurs d’autres succursales à se syndiquer (64 % des répondants) et donc freiné la campagne syndicale en cours. Nous constatons également que bon nombre de tactiques ont été déployées à la suite de l’accréditation syndicale en s’attaquant aux intérêts individuels. Mentionnons, pour n’en citer que quelques-uns, que les travailleurs feraient face à une plus forte discipline (72 % des répondants), qu’ils seraient victimes d’intimidation ou de menaces (80 % des répondants) et que ces tactiques provoquèrent des démissions à cause de l’ambiance de travail alourdie (50 % des répondants).
Resumo:
Incluye una lista de lecturas recomendadas