848 resultados para Online data processing.
Resumo:
Coastal zones and shelf-seas are important for tourism, commercial fishing and aquaculture. As a result the importance of good water quality within these regions to support life is recognised worldwide and a number of international directives for monitoring them now exist. This paper describes the AlgaRisk water quality monitoring demonstration service that was developed and operated for the UK Environment Agency in response to the microbiological monitoring needs within the revised European Union Bathing Waters Directive. The AlgaRisk approach used satellite Earth observation to provide a near-real time monitoring of microbiological water quality and a series of nested operational models (atmospheric and hydrodynamic-ecosystem) provided a forecast capability. For the period of the demonstration service (2008–2013) all monitoring and forecast datasets were processed in near-real time on a daily basis and disseminated through a dedicated web portal, with extracted data automatically emailed to agency staff. Near-real time data processing was achieved using a series of supercomputers and an Open Grid approach. The novel web portal and java-based viewer enabled users to visualise and interrogate current and historical data. The system description, the algorithms employed and example results focussing on a case study of an incidence of the harmful algal bloom Karenia mikimotoi are presented. Recommendations and the potential exploitation of web services for future water quality monitoring services are discussed.
Resumo:
Metallographic characterisation is combined with statistical analysis to study the microstructure of a BT16 titanium alloy after different heat treatment processes. It was found that the length, width and aspect ratio of α plates in this alloy follow the three-parameter Weibull distribution. Increasing annealing temperature or time causes the probability distribution of the length and the width of α plates to tend toward a normal distribution. The phase transformation temperature of the BT16 titanium alloy was found to be 875±5°C.
Resumo:
Mass spectrometry (MS)-based metabolomics is emerging as an important field of research in many scientific areas, including chemical safety of food. A particular strength of this approach is its potential to reveal some physiological effects induced by complex mixtures of chemicals present at trace concentrations. The limitations of other analytical approaches currently employed to detect low-dose and mixture effects of chemicals make detection very problematic. Besides this basic technical challenge, numerous analytical choices have to be made at each step of a metabolomics study, and each step can have a direct impact on the final results obtained and their interpretation (i.e. sample preparation, sample introduction, ionization, signal acquisition, data processing, and data analysis). As the application of metabolomics to chemical analysis of food is still in its infancy, no consensus has yet been reached on defining many of these important parameters. In this context, the aim of the present study is to review all these aspects of MS-based approaches to metabolomics, and to give a comprehensive, critical overview of the current state of the art, possible pitfalls, and future challenges and trends linked to this emerging field. (C) 2010 Elsevier Ltd. All rights reserved.
Resumo:
Wireless sensor node platforms are very diversified and very constrained, particularly in power consumption. When choosing or sizing a platform for a given application, it is necessary to be able to evaluate in an early design stage the impact of those choices. Applied to the computing platform implemented on the sensor node, it requires a good understanding of the workload it must perform. Nevertheless, this workload is highly application-dependent. It depends on the data sampling frequency together with application-specific data processing and management. It is thus necessary to have a model that can represent the workload of applications with various needs and characteristics. In this paper, we propose a workload model for wireless sensor node computing platforms. This model is based on a synthetic application that models the different computational tasks that the computing platform will perform to process sensor data. It allows to model the workload of various different applications by tuning data sampling rate and processing. A case study is performed by modeling different applications and by showing how it can be used for workload characterization. © 2011 IEEE.
Resumo:
A reduction in the time required to locate and restore faults on a utility's distribution network improves the customer minutes lost (CML) measurement and hence brings direct cost savings to the operating company. The traditional approach to fault location involves fault impedance determination from high volume waveform files dispatched across a communications channel to a central location for processing and analysis. This paper examines an alternative scheme where data processing is undertaken locally within a recording instrument thus reducing the volume of data to be transmitted. Processed event fault reports may be emailed to relevant operational staff for the timely repair and restoration of the line.
Resumo:
Purpose: The purpose of this paper is to present an artificial neural network (ANN) model that predicts earthmoving trucks condition level using simple predictors; the model’s performance is compared to the respective predictive accuracy of the statistical method of discriminant analysis (DA).
Design/methodology/approach: An ANN-based predictive model is developed. The condition level predictors selected are the capacity, age, kilometers travelled and maintenance level. The relevant data set was provided by two Greek construction companies and includes the characteristics of 126 earthmoving trucks.
Findings: Data processing identifies a particularly strong connection of kilometers travelled and maintenance level with the earthmoving trucks condition level. Moreover, the validation process reveals that the predictive efficiency of the proposed ANN model is very high. Similar findings emerge from the application of DA to the same data set using the same predictors.
Originality/value: Earthmoving trucks’ sound condition level prediction reduces downtime and its adverse impact on earthmoving duration and cost, while also enhancing the maintenance and replacement policies effectiveness. This research proves that a sound condition level prediction for earthmoving trucks is achievable through the utilization of easy to collect data and provides a comparative evaluation of the results of two widely applied predictive methods.
Resumo:
This paper introduces hybrid address spaces as a fundamental design methodology for implementing scalable runtime systems on many-core architectures without hardware support for cache coherence. We use hybrid address spaces for an implementation of MapReduce, a programming model for large-scale data processing, and the implementation of a remote memory access (RMA) model. Both implementations are available on the Intel SCC and are portable to similar architectures. We present the design and implementation of HyMR, a MapReduce runtime system whereby different stages and the synchronization operations between them alternate between a distributed memory address space and a shared memory address space, to improve performance and scalability. We compare HyMR to a reference implementation and we find that HyMR improves performance by a factor of 1.71× over a set of representative MapReduce benchmarks. We also compare HyMR with Phoenix++, a state-of-art implementation for systems with hardware-managed cache coherence in terms of scalability and sustained to peak data processing bandwidth, where HyMR demon- strates improvements of a factor of 3.1× and 3.2× respectively. We further evaluate our hybrid remote memory access (HyRMA) programming model and assess its performance to be superior of that of message passing.
Resumo:
This special issue provides the latest research and development on wireless mobile wearable communications. According to a report by Juniper Research, the market value of connected wearable devices is expected to reach $1.5 billion by 2014, and the shipment of wearable devices may reach 70 million by 2017. Good examples of wearable devices are the prominent Google Glass and Microsoft HoloLens. As wearable technology is rapidly penetrating our daily life, mobile wearable communication is becoming a new communication paradigm. Mobile wearable device communications create new challenges compared to ordinary sensor networks and short-range communication. In mobile wearable communications, devices communicate with each other in a peer-to-peer fashion or client-server fashion and also communicate with aggregation points (e.g., smartphones, tablets, and gateway nodes). Wearable devices are expected to integrate multiple radio technologies for various applications' needs with small power consumption and low transmission delays. These devices can hence collect, interpret, transmit, and exchange data among supporting components, other wearable devices, and the Internet. Such data are not limited to people's personal biomedical information but also include human-centric social and contextual data. The success of mobile wearable technology depends on communication and networking architectures that support efficient and secure end-to-end information flows. A key design consideration of future wearable devices is the ability to ubiquitously connect to smartphones or the Internet with very low energy consumption. Radio propagation and, accordingly, channel models are also different from those in other existing wireless technologies. A huge number of connected wearable devices require novel big data processing algorithms, efficient storage solutions, cloud-assisted infrastructures, and spectrum-efficient communications technologies.
Resumo:
How can GPU acceleration be obtained as a service in a cluster? This question has become increasingly significant due to the inefficiency of installing GPUs on all nodes of a cluster. The research reported in this paper is motivated to address the above question by employing rCUDA (remote CUDA), a framework that facilitates Acceleration-as-a-Service (AaaS), such that the nodes of a cluster can request the acceleration of a set of remote GPUs on demand. The rCUDA framework exploits virtualisation and ensures that multiple nodes can share the same GPU. In this paper we test the feasibility of the rCUDA framework on a real-world application employed in the financial risk industry that can benefit from AaaS in the production setting. The results confirm the feasibility of rCUDA and highlight that rCUDA achieves similar performance compared to CUDA, provides consistent results, and more importantly, allows for a single application to benefit from all the GPUs available in the cluster without loosing efficiency.
Resumo:
O metano é um gás de estufa potente e uma importante fonte de energia. A importância global e impacto em zonas costeiras de acumulações e escape de gás metano são ainda pouco conhecidas. Esta tese investiga acumulações e escape de gás em canais de maré da Ria de Aveiro com dados de cinco campanhas de reflexão sísmica de alta resolução realizadas em 1986, 1999, 2002 e 2003. Estas incluem três campanhas de Chirp (RIAV99, RIAV02 e RIAV02A) e duas campanhas de Boomer (VOUGA86 e RIAV03). O processamento dos dados de navegação incluíram filtros de erros, correcções de sincronização de relógios de sistemas de aquisição de dados, ajuste de “layback” e estimativa da posição de “midpoint”. O processamento do sinal sísmico consistiu na correcção das amplitudes, remoção de ruído do tipo “burst”, correcções estáticas, correcção do “normal move-out”, filtragem passabanda, desconvolução da assinatura e migração Stolt F-K. A análise da regularidade do trajecto de navegação, dos desfasamentos entre horizontes e dos modelos de superfícies foi utilizada para controlo de qualidade, e permitiu a revisão e melhoria dos parâmetros de processamento. A heterogeneidade da cobertura sísmica, da qualidade do sinal, da penetração e da resolução, no seu conjunto constrangeram o uso dos dados a interpretações detalhadas, mas locais, de objectos geológicos da Ria. É apresentado um procedimento para determinar a escolha de escalas adequadas para modelar os objectos geológicos, baseado na resolução sísmica, erros de posicionamento conhecidos e desfasamentos médios entre horizontes. As evidências de acumulação e escape de gás na Ria de Aveiro incluem turbidez acústica, reflexões reforçadas, cortinas acústicas, domas, “pockmarks” e alinhamentos de “pockmarks” enterradas, horizontes perturbados e plumas acústicas na coluna de água (flares). A estratigrafia e a estrutura geológica controlam a distribuição e extensão das acumulações e escape de gás. Ainda assim, nestes sistemas de baixa profundidade de água, as variações da altura de maré têm um impacto significativo na detecção de gás com métodos acústicos, através de alterações nas amplitudes originais de reflexões reforçadas, turbidez acústica e branqueamento acústico em zonas com gás. Os padrões encontrados confirmam que o escape de bolhas de gás é desencadeado pela descida da maré. Há acumulações de gás em sedimentos Holocénicos e no substrato de argilas e calcários do Mesozóico. Evidências directas de escape de gás em sondagens em zonas vizinhas, mostraram gás essencialmente biogénico. A maioria do gás na área deve ter sido gerado em sedimentos lagunares Holocénicos. No entanto, a localização e geometria de estruturas de escape de fluidos em alguns canais de maré, seguem o padrão de fracturas do substrato Mesozóico, indicando uma possível fonte mais profunda de gás e que estas fracturas funcionam como condutas preferenciais de migração dos fluidos e exercem um controlo estrutural na ocorrência de gás na Ria.
Resumo:
O atual contexto social de aceleração exponencial, resultante de alterações políticas, económicas e do acesso imediato a um extenso conjunto de informações e a um manancial de desenvolvimentos científicos e tecnológicos, cujas implicações são imprevisíveis e transversais a diferentes setores, está em dissonância com as características do modelo escolar dominante e a naturalizada ‘gramática da escola’ (Formosinho & Machado, 2008; Nóvoa, 2009a; Tyack & Tobin, 1994). Este desfasamento, amplificado em países com sistemas de ensino de matriz centralizada, resvala entre uma ação docente acrítica e executora e, em oposição, uma ação docente de natureza profissional, caracterizada por um alinhamento entre o desenvolvimento profissional e a afirmação da especificidade do conhecimento profissional docente, enquanto saber que se constrói na interação com os outros, com o próprio, nos e sobre os contextos de prática. A implementação do processo de reorganização curricular do ensino básico (Decreto-Lei n.º 6/2001, de 18 de janeiro) redefiniu o currículo nacional segundo duas perspetivas: a nacional e a local, veiculando uma conceção curricular flexível e emancipatória, isto é, uma proposta curricular que confere aos professores autonomia no desenvolvimento e gestão do currículo, instigando-os à realização de práticas curriculares com intencionalidade pedagógica estratégica. Neste sentido, a pretensão desta investigação situou-se ao nível da problematização de saberes profissionais e da concetualização de algumas possibilidades de ação tangenciais à capacidade de autotransformação de cada profissional docente e da escola. As opções metodológicas consideradas visaram, sobretudo, compreender quais os possíveis conhecimentos profissionais mobilizados por professores de Ciências Físicas e Naturais, em particular ao nível do desenvolvimento e gestão do currículo desta área curricular. Assim, perspetivado sob a forma de questão enquadradora, o problema que esteve na génese desta investigação assume a seguinte formulação: Que conhecimento mobilizam professores do ensino básico no desenvolvimento e na gestão do currículo das Ciências Físicas e Naturais? De que forma e com que ações poderá ser potenciado esse conhecimento nos processos de ensino e aprendizagem? O estudo empírico que sustentou este projeto de investigação organizou-se em dois momentos distintos. O primeiro, de natureza predominantemente quantitativa e dimensão de análise extensiva, envolveu a administração de um inquérito por questionário a professores de Ciências Físicas e Naturais que, no ano letivo de 2006/2007, se encontravam a lecionar em escolas públicas com 2.º e 3.º ciclos afetas à Direção Regional de Educação do Norte e ao, anteriormente, designado Centro de Área Educativa de Aveiro. Com um enfoque preponderantemente qualitativo, o segundo momento do estudo decorreu ao longo do ano letivo de 2007/2008 num agrupamento de escolas da região norte do país e consistiu na realização de entrevistas a oito professores de Ciências Físicas e Naturais, à coordenadora do departamento de Matemática e Ciências Experimentais e aos presidentes do Conselho Pedagógico e do Conselho Executivo. Ao longo do ano letivo, os professores de Ciências Físicas e Naturais desenvolveram, igualmente, um percurso formativo cuja ênfase se situava ao nível da adequação do desenvolvimento e gestão do currículo desta área disciplinar. As técnicas de tratamento de dados privilegiadas foram a análise estatística e a análise de conteúdo. Os resultados deste estudo apontam para a prevalência de uma ação docente desprovida de intencionalidades pedagógica e curricular ou de integração na construção do corpo geral do saber, designadamente ao nível dos processos de desenvolvimento e gestão do currículo. Não obstante alguma familiarização com conceitos inerentes à dimensão do conhecimento do currículo, os indicadores de reapropriação ao nível da ação docente foram escassos, denunciando a presença de constrangimentos no domínio teórico das orientações curriculares nacionais e locais, bem como no desenvolvimento de práticas curriculares articuladas e estrategicamente definidas. Por outro lado, o predomínio de uma ação docente tendencialmente acrítica, de matriz executora, associada ao cumprimento de normativos legais e de rotinas e burocracias instituídas, indiciou fragilidades ao nível do conhecimento profissional configurado como mobilização complexa, organizada e coerente de conhecimentos científicos, curriculares, pedagógicos e metodológicos, em função da especificidade de cada situação educativa e cuja finalidade é a otimização da aprendizagem do aluno. O percurso formativo afigurou-se como um espaço de partilha e de reflexão colegial, propício ao desenvolvimento de ações que se inserem numa perspetiva de ‘action learning’, possibilitando a reflexão e a aprendizagem através de ações empreendidas em função de práticas educativas. As possibilidades de ação remetem para a integração da formação contínua em contexto, com intencionalidades pedagógicas e curriculares estrategicamente definidas, e a problematização da formação inicial e contínua dos professores, envolvendo as perspetivas de diferentes atores educativos e de investigadores educacionais.
Resumo:
Estudar os mecanismos subjacentes à produção de fala é uma tarefa complexa e exigente, requerendo a obtenção de dados mediante a utilização de variadas técnicas, onde se incluem algumas modalidades imagiológicas. De entre estas, a Ressonância Magnética (RM) tem ganho algum destaque, nos últimos anos, posicionando-se como uma das mais promissoras no domínio da produção de fala. Um importante contributo deste trabalho prende-se com a otimização e implementação de protocolos (RM) e proposta de estratégias de processamento de imagem ajustados aos requisitos da produção de fala, em geral, e às especificidades dos diferentes sons. Para além disso, motivados pela escassez de dados para o Português Europeu (PE), constitui-se como objetivo a obtenção de dados articulatórios que permitam complementar informação já existente e clarificar algumas questões relativas à produção dos sons do PE (nomeadamente, consoantes laterais e vogais nasais). Assim, para as consoantes laterais foram obtidas imagens RM (2D e 3D), através de produções sustidas, com recurso a uma sequência Eco de Gradiente (EG) rápida (3D VIBE), no plano sagital, englobando todo o trato vocal. O corpus, adquirido por sete falantes, contemplou diferentes posições silábicas e contextos vocálicos. Para as vogais nasais, foram adquiridas, em três falantes, imagens em tempo real com uma sequência EG - Spoiled (TurboFLASH), nos planos sagital e coronal, obtendo-se uma resolução temporal de 72 ms (14 frames/s). Foi efetuada aquisição sincronizada das imagens com o sinal acústico mediante utilização de um microfone ótico. Para o processamento e análise de imagem foram utilizados vários algoritmos semiautomáticos. O tratamento e análise dos dados permitiu efetuar uma descrição articulatória das consoantes laterais, ancorada em dados qualitativos (e.g., visualizações 3D, comparação de contornos) e quantitativos que incluem áreas, funções de área do trato vocal, extensão e área das passagens laterais, avaliação de efeitos contextuais e posicionais, etc. No que respeita à velarização da lateral alveolar /l/, os resultados apontam para um /l/ velarizado independentemente da sua posição silábica. Relativamente ao /L/, em relação ao qual a informação disponível era escassa, foi possível verificar que a sua articulação é bastante mais anteriorizada do que tradicionalmente descrito e também mais extensa do que a da lateral alveolar. A resolução temporal de 72 ms conseguida com as aquisições de RM em tempo real, revelou-se adequada para o estudo das características dinâmicas das vogais nasais, nomeadamente, aspetos como a duração do gesto velar, gesto oral, coordenação entre gestos, etc. complementando e corroborando resultados, já existentes para o PE, obtidos com recurso a outras técnicas instrumentais. Para além disso, foram obtidos novos dados de produção relevantes para melhor compreensão da nasalidade (variação área nasal/oral no tempo, proporção nasal/oral). Neste estudo, fica patente a versatilidade e potencial da RM para o estudo da produção de fala, com contributos claros e importantes para um melhor conhecimento da articulação do Português, para a evolução de modelos de síntese de voz, de base articulatória, e para aplicação futura em áreas mais clínicas (e.g., perturbações da fala).
Resumo:
This thesis reports the application of metabolomics to human tissues and biofluids (blood plasma and urine) to unveil the metabolic signature of primary lung cancer. In Chapter 1, a brief introduction on lung cancer epidemiology and pathogenesis, together with a review of the main metabolic dysregulations known to be associated with cancer, is presented. The metabolomics approach is also described, addressing the analytical and statistical methods employed, as well as the current state of the art on its application to clinical lung cancer studies. Chapter 2 provides the experimental details of this work, in regard to the subjects enrolled, sample collection and analysis, and data processing. In Chapter 3, the metabolic characterization of intact lung tissues (from 56 patients) by proton High Resolution Magic Angle Spinning (HRMAS) Nuclear Magnetic Resonance (NMR) spectroscopy is described. After careful assessment of acquisition conditions and thorough spectral assignment (over 50 metabolites identified), the metabolic profiles of tumour and adjacent control tissues were compared through multivariate analysis. The two tissue classes could be discriminated with 97% accuracy, with 13 metabolites significantly accounting for this discrimination: glucose and acetate (depleted in tumours), together with lactate, alanine, glutamate, GSH, taurine, creatine, phosphocholine, glycerophosphocholine, phosphoethanolamine, uracil nucleotides and peptides (increased in tumours). Some of these variations corroborated typical features of cancer metabolism (e.g., upregulated glycolysis and glutaminolysis), while others suggested less known pathways (e.g., antioxidant protection, protein degradation) to play important roles. Another major and novel finding described in this chapter was the dependence of this metabolic signature on tumour histological subtype. While main alterations in adenocarcinomas (AdC) related to phospholipid and protein metabolisms, squamous cell carcinomas (SqCC) were found to have stronger glycolytic and glutaminolytic profiles, making it possible to build a valid classification model to discriminate these two subtypes. Chapter 4 reports the NMR metabolomic study of blood plasma from over 100 patients and near 100 healthy controls, the multivariate model built having afforded a classification rate of 87%. The two groups were found to differ significantly in the levels of lactate, pyruvate, acetoacetate, LDL+VLDL lipoproteins and glycoproteins (increased in patients), together with glutamine, histidine, valine, methanol, HDL lipoproteins and two unassigned compounds (decreased in patients). Interestingly, these variations were detected from initial disease stages and the magnitude of some of them depended on the histological type, although not allowing AdC vs. SqCC discrimination. Moreover, it is shown in this chapter that age mismatch between control and cancer groups could not be ruled out as a possible confounding factor, and exploratory external validation afforded a classification rate of 85%. The NMR profiling of urine from lung cancer patients and healthy controls is presented in Chapter 5. Compared to plasma, the classification model built with urinary profiles resulted in a superior classification rate (97%). After careful assessment of possible bias from gender, age and smoking habits, a set of 19 metabolites was proposed to be cancer-related (out of which 3 were unknowns and 6 were partially identified as N-acetylated metabolites). As for plasma, these variations were detected regardless of disease stage and showed some dependency on histological subtype, the AdC vs. SqCC model built showing modest predictive power. In addition, preliminary external validation of the urine-based classification model afforded 100% sensitivity and 90% specificity, which are exciting results in terms of potential for future clinical application. Chapter 6 describes the analysis of urine from a subset of patients by a different profiling technique, namely, Ultra-Performance Liquid Chromatography coupled to Mass Spectrometry (UPLC-MS). Although the identification of discriminant metabolites was very limited, multivariate models showed high classification rate and predictive power, thus reinforcing the value of urine in the context of lung cancer diagnosis. Finally, the main conclusions of this thesis are presented in Chapter 7, highlighting the potential of integrated metabolomics of tissues and biofluids to improve current understanding of lung cancer altered metabolism and to reveal new marker profiles with diagnostic value.
Resumo:
Loin de la réduction pressentie du temps de travail et de l’émergence d’une société des loisirs, est plutôt observé, depuis une trentaine d’années, un accroissement du temps consacré au travail pour les travailleurs les plus qualifiés, au Québec comme dans la plupart des sociétés occidentales (Burke et Cooper, 2008; Lapointe, 2005; Lee, 2007). Dans un contexte où les « arrangements temporels » (Thoemmes, 2000) tendent à s’individualiser de façon à mieux prendre en compte les réalités et les besoins des salariés et salariées tout comme ceux des organisations, cette thèse interroge le caractère « volontaire » des conduites d’hypertravail observées chez les travailleurs et les travailleuses des secteurs des services informatiques et du multimédia. Elle s’attarde plus particulièrement aux processus psychosociaux qui sous-tendent la construction de ces conduites. Inscrite au sein d’une approche psychosociale et systémique, notre recherche articule une théorie qui met en résonance les fonctionnements individuel et organisationnel, soutenue par le modèle du Système psychique organisationnel (Aubert et de Gaulejac, 1991), et une théorie de la socialisation plurielle et active, soutenue par le modèle du Système des activités (Baubion-Broye et Hajjar, 1998; Curie, 2000). Opérationnalisée selon une grille articulée autour de cinq niveaux d’analyse (intra-individuel, interpersonnel, positionnel, idéologique et de la tâche et de l’organisation du travail), nous avons mené 34 entretiens biographiques (26 hommes et 8 femmes) auprès de salariés et salariées des secteurs des services informatiques et du multimédia. Les résultats mettent en évidence trois types de processus menant à l’adoption de conduites d’hypertravail ; un cas-type qui illustre un processus de renforcement d’une identité professionnelle de « grand travailleur » ; un cas-type qui rend compte d’un processus de suraffiliation organisationnelle et d’assujettissement de la vie hors-travail; et un cas-type qui expose le maintien d’une conduite d’hypertravail défensive, dans un contexte de mise à l’épreuve organisationnelle. Au final, les résonances particulières observées entre ces niveaux et facteurs nous amènent à souligner l’intérêt de mieux comprendre l’hypertravail en prenant en compte les significations que les individus donnent à leurs conduites, à partir d’un regard diachronique et synchronique. Nous discutons également du caractère dynamique et évolutif de la relation individu-collectif-organisation et du rôle différencié des organisations et des collectifs de travail dans la construction des conduites d’hypertravail. Nous relevons enfin certaines implications des nouvelles pratiques et normes de temps de travail observées dans ces organisations, favorables au développement et au maintien de l’hypertravail. Mots-clés : temps de travail, longues heures de travail, conduites d’hypertravail, articulation travail-vie personnelle, socialisation plurielle et active, domination au travail.